Vijesti

Zastrašujuća analiza eksperata: Zaboravite na AI apokalipsu. Prava opasnost je već tu

Vijeće sigurnosti Ujedinjenih naroda održat će prvi sastanak 18. jula o potencijalnim prijetnjama vještačke inteligencije međunarodnom miru

Dvije sedmice nakon što su članovi Kongresa ispitali generalnog direktora OpenAI Sama Altmana o potencijalu alata umjetne inteligencije za širenje dezinformacija, ometanje izbora i pomjeranje radnih mjesta, on i drugi u industriji izašli su u javnost s mnogo strašnijom mogućnošću: apokalipsom umjetne inteligencije.

Altman, čija kompanija stoji iza chatbot alata ChatGPT, pridružio se izvršnom direktoru Google DeepMind Demisu Hassabisu, Microsoftovom tehničkom direktoru Kevinu Scottu i desetinama drugih istraživača umjetne inteligencije i poslovnih lidera u potpisivanju pisma u jednoj rečenici prošlog mjeseca u kojem se navodi: „Ublažavanje rizika od izumiranja od AI bi trebao biti globalni prioritet pored drugih društvenih rizika kao što su pandemije i nuklearni rat.”

Strah od umjetne inteligencije

Oštro upozorenje je naširoko propraćeno u štampi, a neki su sugerirali da pokazuje potrebu da se takvi apokaliptični scenariji shvate ozbiljnije. Ali to takođe naglašava važnu dinamiku u Silicijskoj dolini upravo sada: najviši rukovodioci u nekim od najvećih tehnoloških kompanija istovremeno govore javnosti da AI ima potencijal da dovede do izumiranja ljudi, istovremeno se utrkujući da investiraju i primjeni ove tehnologije u proizvode koji dopiru do milijardi ljudi.

Dinamika se nedavno odigrala i drugdje. Izvršni direktor Tesle Elon Musk, na primjer, rekao je u TV intervjuu u aprilu da bi umjetna inteligencija mogla dovesti do "uništavanja civilizacije". Ali on je i dalje duboko uključen u tehnologiju kroz ulaganja širom svog velikog poslovnog carstva i rekao je da želi stvoriti rivala AI ponudama Microsofta i Googlea.

Neki stručnjaci iz AI industrije kažu da fokusiranje pažnje na daleke scenarije može odvratiti pažnju od neposrednije štete koju nova generacija moćnih AI alata može nanijeti ljudima i zajednicama, uključujući širenje dezinformacija, održavanje predrasuda i omogućavanje diskriminacije u različitim uslugama.

"Činilo se da su motivi pomiješani", rekao je za CNN Gary Marcus, istraživač umjetne inteligencije i profesor emeritus Univerziteta New York koji je svjedočio pred zakonodavcima zajedno s Altmanom prošlog mjeseca. Neki od rukovodilaca su vjerovatno "istinski zabrinuti zbog onoga što su oslobodili", rekao je, ali drugi možda pokušavaju da usmjere pažnju na "apstraktne mogućnosti kako bi odvratili od neposrednijih mogućnosti".

Predstavnici Googlea i OpenAI-a nisu odmah odgovorili na zahtjev za komentar. U izjavi, glasnogovornik Microsofta rekao je: „Mi smo optimisti u pogledu budućnosti AI i mislimo da će napredak AI riješiti mnogo više izazova nego što predstavlja, ali smo također bili dosljedni u svom uvjerenju da kada kreirate tehnologije koje se mogu promijeniti svijetu, također morate osigurati da se tehnologija koristi odgovorno.”

Za Markusa, koji je sam sebe opisao kritičara AI hypea, „najveća neposredna prijetnja AI je prijetnja demokraciji od velike proizvodnje uvjerljivih dezinformacija“.

Generativni AI alati kao što su OpenAI ChatGPT i Dall-E obučeni su na ogromnim količinama podataka na mreži kako bi stvorili uvjerljiv pisani rad i slike kao odgovor na upite korisnika. Pomoću ovih alata, na primjer, moglo bi se brzo oponašati stil ili sličnost javnih ličnosti u pokušaju da se kreiraju kampanje dezinformacija.

U svom svjedočenju pred Kongresom, Altman je također rekao da je mogućnost korištenja umjetne inteligencije za manipulaciju glasačima i ciljanje dezinformacija među “mojim područjima najveće zabrinutosti”.

Međutim, čak i u uobičajenijim slučajevima upotrebe, postoje nedoumice. Isti alati su pozvani da nude pogrešne odgovore na upite korisnika, direktne „halucinirajuće“ odgovore i potencijalno održavaju rasne i rodne predrasude.

Emily Bender, profesorica na Univerzitetu u Washingtonu i direktorica Laboratorije za računarsku lingvistiku, rekla je za CNN da bi neke kompanije možda željele skrenuti pažnju sa pristrasnosti utkane u njihove podatke, kao i sa zabrinutosti o tvrdnjama o tome kako su njihovi sistemi obučeni.

Bender je naveo zabrinutost zbog intelektualne svojine u vezi sa nekim podacima o kojima se ovi sistemi obučavaju, kao i optužbe da kompanije prepuštaju posao prolaska kroz neke od najgorih dijelova podataka o obuci slabo plaćenim radnicima u inostranstvu.

"Ako se javnost i regulatori mogu fokusirati na ove zamišljene scenarije naučne fantastike, onda bi se ove kompanije mogle duže izvlačiti s krađom podataka i eksploatatorskim praksama", rekao je Bender za CNN.

Regulatori mogu biti prava ciljna publika za poruke o sudnjem danu tehnološke industrije.

Kako Bender kaže, rukovodioci u suštini govore: „Ove stvari su veoma, veoma opasne, a mi smo jedini koji razumijemo kako da ih obuzdamo.“

Prijedlozi za rješenje

Sudeći po Altmanovom pojavljivanju pred Kongresom, ova strategija bi mogla funkcionirati. Činilo se da je Altman osvojio Washington ponavljajući zabrinutost zakonodavaca u vezi s umjetnom inteligencijom – tehnologijom koju mnogi u Kongresu još uvijek pokušavaju razumjeti – i nudeći prijedloge kako da je riješe.

Ovakav pristup regulaciji bio bi "veliko problematičan", rekao je Bender. To bi industriji moglo dati utjecaj na regulatore koji su zaduženi da je drže odgovornom i također izostaviti glasove i doprinose drugih ljudi i zajednica koje doživljavaju negativne utjecaje ove tehnologije.

"Ako se regulatori na neki način orijentišu na ljude koji grade i prodaju tehnologiju kao jedini koji bi to mogli razumjeti, pa stoga mogu i dati informacije o tome kako bi regulativa trebala funkcionirati, zaista ćemo propustiti", rekao je Bender.

Bender je rekla da pokušava, u svakoj prilici, da kaže ljudima da "ove stvari izgledaju mnogo pametnije nego što jesu". Kako je rekla, to je zato što „mi smo pametni koliko i jesmo“ i način na koji razumemo jezik, uključujući odgovore veštačke inteligencije, „zapravo zamišljamo um iza toga“.

Na kraju, Bender je postavio jednostavno pitanje za tehnološku industriju o AI: „Ako iskreno vjeruju da bi to moglo dovesti do izumiranja ljudi, zašto onda jednostavno ne prestanu?“