šta nas čeka

Je li moguća ‘pobuna strojeva’? Naučnici napravili veliko istraživanje o opasnostima umjetne inteligencije po čovjeka

Naučna fantastika je prožeta umjetnom inteligencijom koja postaje skitnica i okreće se protiv svojih ljudskih kreatora. HAL-9000. Matrix. Skynet. GLaDOS. Cylonci. Čini se da čovječanstvo duboko strahuje od pobune strojeva.

S porastom sve sofisticiranijih modela velikih jezika (LLM-ova), kao što je Chat GPT, pitanje koje opasnosti AI može predstavljati postalo je još relevantnije.

A sada imamo dobre vijesti. Prema novoj studiji koju su vodili naučnici Iryna Gurevych s Tehničkog univerziteta u Darmstadtu u Njemačkoj i Harish Tayyar Madabushi sa Univerziteta u Bathu u Velikoj Britaniji, ovi modeli ne mogu postati lažni.

Oni su, zapravo, previše ograničeni svojim programiranjem, nesposobni za stjecanje novih vještina bez instrukcija, i stoga ostaju pod ljudskom kontrolom.

To znači da, iako je i dalje moguće koristiti modele u opake svrhe, sami po sebi LLM-ovi su sigurni za razvoj bez brige.

"Strah je bio da će, kako modeli postaju sve veći i veći, moći riješiti nove probleme koje trenutno ne možemo predvidjeti, što predstavlja prijetnju da bi ti veći modeli mogli steći opasne sposobnosti, uključujući razmišljanje i planiranje", kaže Tayyar Madabushi.

"Naša studija pokazuje da strah da će model otići i učiniti nešto potpuno neočekivano, inovativno i potencijalno opasno nije valjan."

U posljednjih nekoliko godina, sofisticiranost LLM-a je porasla do zapanjujuće mjere. Sada su u stanju voditi relativno koherentan razgovor putem teksta, na način koji se čini prirodnim i ljudskim.

Oni nisu savršeni – budući da zapravo nisu oblik inteligencije, nedostaju im kritičke vještine potrebne za raščlanjivanje dobrih informacija od loših u mnogim slučajevima. Ali još uvijek mogu prenijeti loše informacije na uvjerljiv način.

Nedavno su neki istraživači istraživali mogućnost da LLM-ovi samostalno razvijaju ono što je poznato kao nove sposobnosti, umjesto da ih namjerno kodiraju u svom programiranju. Jedan konkretan primjer je LLM koji je mogao odgovoriti na pitanja o društvenim situacijama, a da nije bio izričito obučen za te situacije.

Opažanje je bilo da kako se LLM povećavaju, postaju moćniji i mogu obavljati više zadataka. Nije bilo jasno podrazumijeva li to skaliranje i rizik ponašanja s kojim se možda nismo spremni nositi. Stoga su istraživači proveli istragu kako bi vidjeli jesu li takvi slučajevi doista pojavni ili program jednostavno djeluje na složene načine unutar granica svog koda.

Eksperimentirali su s četiri različita modela LLM-a, dodjeljujući im zadatke koji su prethodno bili identificirani kao hitni. I nisu našli nikakve dokaze za razvoj diferenciranog mišljenja, ili da je bilo koji od modela sposoban djelovati izvan svog programa.

Za sva četiri modela, sposobnost praćenja uputa, pamćenje i lingvistička vještina mogli su objasniti sve sposobnosti koje su iskazali LLM-ovi. Nije bilo izlaska izvan staze. Nemamo se čega bojati LLM-a samih.

Ljudi su, s druge strane, manje pouzdani. Naša vlastita eksplozivna upotreba umjetne inteligencije, koja zahtijeva više energije i izaziva sve, od autorskih prava do povjerenja do toga kako izbjeći vlastito digitalno onečišćenje, to postaje pravi problem.

"Naši rezultati ne znače da AI uopće nije prijetnja", kaže Gurevych.

"Naprotiv, pokazujemo da navodna pojava složenih vještina razmišljanja povezanih s određenim prijetnjama nije potkrijepljena dokazima i da ipak možemo vrlo dobro kontrolirati proces učenja LLM-a. Buduća bi se istraživanja stoga trebala usredotočiti na druge rizike koje predstavljaju modeli, kao što je njihov potencijal da se iskoriste za stvaranje lažnih vijesti."