ChatGPT i drugi veliki jezični modeli ne mogu samostalno učiti niti stjecati nove vještine, što znači da ne predstavljaju egzistencijalnu prijetnju čovječanstvu, tvrdi novo istraživanje Univerziteta u Bathu i Tehničkog fakulteta u Darmstadtu. Studija britanskih i njemačkih istraživača, objavljena u zborniku sastanka Udružnja za računalnu lingvistiku ACL 2024, glavne međunarodne konferencije o obradi prirodnog jezika, otkriva da veliki jezični modeli imaju površnu sposobnost da slijede upute i ističu se znanjem jezika, ali nemaju potencijal za svladavanje novih vještina bez izričite upute. To onda znači da su inherentno kontrolirani, predvidljivi i sigurni pa se mogu nastaviti koristiti bez zabrinutosti za sigurnost, zaključuju istraživači, ostavljajući mogućnost da se i ova tehnologija, poput svih drugih, uvijek može zloupotrijebiti.
Hiljade eksperimenata
Ovi će modeli s vremenom vjerojatno generirati sofisticiraniji jezik i postati bolji u praćenju eksplicitnih i detaljnih upita, ali vrlo je malo vjerojatno da će steći složene vještine zaključivanja, kažu autori studije o „emergentnim sposobnostima“ velikih jezičnih modela koji su proveli niz eksperimenata kojima su testirao sposobnost LLM-a da izvrše zadatke na koje dotad nisu naišli.
LLM-i, na primjer, mogu odgovoriti na pitanja o raznim društvenim situacijama, a da za to nisu bili izričito obučeni ili programirani. No, dok su prethodna istraživanja sugerirala da je to proizvod modela koji "znaju" o društvenim situacijama, istraživači su pokazali da je riječ o dobro poznatoj sposobnosti LLM-a da dovrše zadatke na temelju učenja u kontekstu (ICL).
Kontrola procesa
Kombinacija sposobnosti LLM-a da slijede upute, pamćenja i lingvističke vještine može objasniti i sposobnosti i ograničenja LLM-a, zaključili su istraživači nakon hiljada provedenih eksperimenata. To znači, tvrde autori studije, da je neutemeljen strah da bi veliki jezični modeli mogli steći opasne sposobnosti, uključujući razmišljanje i planiranje; testovi jasno pokazuju nepostojanje novih složenih sposobnosti rasuđivanja kod LLM-a.
"Naši rezultati ne znače da umjetna inteligencija uopće nije prijetnja. Umjesto toga, pokazujemo da navodna pojava složenih vještina razmišljanja povezanih s određenim prijetnjama nije potkrijepljena dokazima i da možemo kontrolirati proces učenja. Ipak, buduća istraživanja trebala bi se usredotočiti na druge rizike koje donose modeli, kao što je njihov potencijal da se koriste za stvaranje lažnih vijesti", upozoravaju istraživači.