Naučnici s Googlea i Univerziteta Stanford demonstrirali su to da dvosatni razgovor s AI modelom može stvoriti zapanjujuće preciznu repliku osobnosti pojedinca. Rezultati istraživanja, objavljeni 15. novembra u bazi preprintova arXiv, predstavljaju 'simulacijske agente' – AI modele osmišljene da oponašaju ljudsko ponašanje s izvanrednom tačnošću.
Pod vodstvom Joon Sunga Parka, doktoranda računalnih nauka na Stanfordu, istraživanje je uključivalo dubinske intervjue s 1052 sudionika. Razgovori su pokrivali osobne priče, vrijednosti i mišljenja o društvenim pitanjima, čime su formirali bazu podataka za obuku generativnih AI modela. 'Ako možete imati gomilu malih 'vas' koji trče okolo i donose odluke koje biste vi donijeli – to je, mislim, konačno budućnost', rekao je Park za MIT Technology Review.
Kako bi procijenili tačnost, sudionici su ispunjavali dva kruga testova osobnosti, društvenih anketa i logičkih igara, ponavljajući proces nakon dvosedmične pauze. AI replike potom su prošle iste testove, replicirajući odgovore ljudskih sudionika s nevjerojatnih 85 posto tačnosti.
Istraživači smatraju da bi ovi AI modeli mogli revolucionirati istraživanje simulirajući ljudsko ponašanje u kontroliranim okruženjima. Primjene bi mogle uključivati procjenu javnozdravstvenih politika, reakcije na društvene događaje ili lansiranje proizvoda. 'Ovaj rad pokazuje kako možete koristiti stvarne ljude za generiranje osobnosti, a koje se zatim mogu koristiti programatski ili u simulacijama na način koji nije moguć sa stvarnim ljudima', istaknuo je John Horton, vanredni profesor na MIT Sloan School of Management.
Uprkos potencijalu, rezultati zahtijevaju zdravu dozu skepticizma. Iako su AI klonovi briljirali u repliciranju odgovora na testovima osobnosti i ispitivanjem društvenih stavova, pokazali su se znatno manje preciznima u predviđanju ponašanja tokom interaktivnih ekonomskih igara. To naglašava izazove s kojima se AI suočava u razumijevanju složenih društvenih dinamika i kontekstualnih nijansi.
Park je naglasio važnost detaljnih intervjua u hvatanju individualnih nijansi. 'Zamislite nekoga ko je prošle godine pobijedio rak. To je vrlo jedinstvena informacija o vama koja govori puno o tome kako biste mogli razmišljati i ponašati se', rekao je.
Međutim etički izazovi kompliciraju implikacije ove tehnologije. U eri u kojoj se AI i tehnologije poput deepfakea već koriste za manipulaciju i obmanu uvođenje visoko personaliziranih AI replika izaziva zabrinutost. Takvi alati mogli bi se potencijalno zloupotrijebiti, povećavajući rizike za privatnost i povjerenje.
Uprkos zabrinutostima, inovacija je privukla interes firmi koje već razvijaju tehnologiju digitalnih blizanaca. Hassaan Raza, izvršni direktor firme Tavus, koja se specijalizirala za stvaranje AI replika iz korisničkih podataka, izrazio je oduševljenje pojednostavljenim pristupom: 'Šta kažete na to da vas intervjuira AI 30 minuta danas, 30 minuta sutra? I tada to koristimo za izradu vašeg digitalnog blizanca.'