(ne)Bezpečnost AI modelů
Co je nového v GPT-4 oproti GPT-3?
V GPT-4 se toho změnilo a zlepšilo hodně, ale ne o všem se ví. OpenAI si u této verze své platformy o něco víc než dřív zakrývá karty, takže ne všechna vylepšení jsou veřejně známá. Z obecného pohledu se model GPT-4 oproti předchozí verzi zdá být chytřejší, přesnější a více schopný toho, co bychom mohli považovat za „myšlení“. To by mělo znamenat, že jeho reakce budou ještě realističtější a kompetentnější než dříve. Je ale důležité si uvědomit, že i když vám bude lhát méně často, stále je to docela dobrý lhář.
Je zpřístupnění takového generativního předtrénovaného modelu veřejnosti etickou aplikací umělé inteligence, když ji mají k dispozici jak ti zlí, tak ti hodní?
Technologický pokrok je jako džin v láhvi. Když vám začne být nepohodlný, nemůžete se ho už zbavit. Dostupnost nástrojů, jako je ChatGPT, s ochrannými opatřeními, která se OpenAI pokusila prosadit, pravděpodobně nezpůsobí více škody než užitku. I když je zneužití umělé inteligence ke kriminálním účelům nevyhnutelné, to dobré, co může z odpovědného používání těchto nástrojů vzejít, pravděpodobně značně převáží nad případným zneužitím.
Vypadá to, že už máme řadu příkladů, kdy prompt engineering porušuje ochranné mechanismy systému, a existuje přinejmenším jeden příklad útoku typu „indirect prompt injection“. Myslíte si, že bude někdy možné vytvořit model GPT, který nebude možné zneužít?
Ne. Ale asi byste rádi slyšeli podrobnější odpověď. Pravda je taková, že jakýkoli systém, který má zabránit zneužití, ale současně je navržen tak, aby fungoval zdánlivě autonomně, bude s největší pravděpodobností vždy možné obejít. Jakmile se OpenAI a další výzkumníci v oblasti umělé inteligence dozvědí více o tom, jak lidé překonávají jejich ochrany, bude to stále složitější. Dnes může každý školák trochu zapátrat a naučit se to. Doufám a očekávám, že v budoucnu to bude vyžadovat podstatně více dovedností, ale stále to bude možné.
Vytváří ChatGPT něco nového, nebo jen přeskupuje to, co mu bylo řečeno? Pokud je to druhá z možností, nepředstavuje pouze existující znalosti? – což by bylo v pořádku, pokud by tyto znalosti byly pravdivé. Ale (1) neomezuje to lidskou schopnost originálního myšlení a (2) co když se model naučil nebo byl naučen nepřesnostem?
Jediné, co může nový ChatGPT vytvořit, jsou lži. Je to docela přesvědčivý lhář, který se vyrovná těm nejlepším narcistům, které jsem potkal. Model byl jistě naučen věcem, které nejsou pravdivé, a je téměř nemožné předvídat, kdy tyto faktické nepřesnosti vnese do svých odpovědí. Opravdu ale nevím, jak to ovlivní lidské myšlenky. Vždy budeme mít výhodu kreativity a vědomé volby, kdy budeme klamat.
Nejlepší modely umělé inteligence patří velkým technologickým společnostem. Osobní a firemní důvěrné údaje obsažené v podnětech sice nemusí skončit v modelu, ale technologické společnosti, jako vlastníci těchto technologií, je jistě budou mít k dispozici. A velcí vlastníci technologií mají často obchodní model postavený na prodeji těchto dat tomu, kdo nabídne nejvíc. Jak tedy přistupovat k aspektům soukromí u veřejně dostupných modelů umělé inteligence ve stylu GPT?
Dnes je pravděpodobně pro většinu uživatelů systémů umělé inteligence obtížné se tomu vyhnout, a musíme věřit slibům a licenčním smlouvám, které jsme odsouhlasili, že budou naše přání respektována. Mnohé z těchto modelů se ale stávají neuvěřitelně efektivními, takže není důvod, proč by je v budoucnu nebylo možné provozovat na našich počítačích a noteboocích nebo dokonce v telefonech. Trénování modelů je výpočetně náročné, ale jejich provozování nikoli. Možná se dočkáme toho, že starší modely budou k dispozici jako open-source nebo budou dokonce crowdsourcovány, aby byly k dispozici všem, kdo je chtějí používat. Ty nejmodernější pravděpodobně zůstanou v rukou velkých technologických firem, ale modely, které jsou více než „dostatečně dobré“, by mohly běžet na iPhonu ve vaší kapse, pokud si to budete přát.