Za brojne je ljude vještačka inteligencija još uvijek velika nepoznanica. Iako se AI alati sve češće koriste i prezentuju kao nešto što će promijeniti način na koji radimo i živimo, ljudi su i dalje skeptični. Dijelom jer je AI nešto što ne mogu vidjeti i opipati, a dijelom jer jednostavno ne znaju za što bi takve alate koristili i kako cijela stvar funkcioniše.
Ali, čini se kako u tom razmišljanju nisu jedini. Učestvujući na AI for Good Global Samitu u Ženevi, šef OpenAI-a Sam Altman, iste one kompanije koja je pokrenula cijelu AI ludnicu, otkrio je nekoliko zanimljivih činjenica o njihovom popularnom chatbotu ChatGPT.
Na pitanje šta je prva velika i dobra stvar koju je AI podstakla u svijetu, Altman je istakao brži i učinkovitiji rad. Ali, isto je istakao i kako je glavna negativna stvar koja je rezultat korištenja AI u svijetu prije svega narušena kibernetička sigurnost, ali i dodao kako će s druge strane AI pomoći i u jačanju kibernetičke sigurnosti.
Jedan od glavnih problema koji se pojavljuje u razvoju vještačke inteligencije je izvor podataka na temelju kojih se alati vještačke inteligencije razvijaju. Već se duže govori o tome kako ponestaje podataka, a činjenica je da je na internetu sve više tzv. sintetičkih podataka, koji su nastali upotrebom vještačke inteligencije, a treniranje AI na temelju tih podataka bi moglo dovesti do problema u budućnosti.
Mislim da su potrebni kvalitetni podaci. Postoje loši podaci koji su sintetički stvoreni, ali i loši podaci koje su stvorili ljudi. I dok god možemo pronaći dovoljno kvalitetnih podataka za treniranje naših modela, ne bi trebalo biti problema, istakao je Altman.
Upravo je to pitanje treniranja vještačke inteligencije dovelo do rasprave o tome kako sama vještačka inteligencija funkcioniše.
Među ostalim, priznao je da kompanija još uvijek ne zna kako funkcionišu njeni veliki jezički modeli. Naime, trenutno se mogućnosti AI modela ograničavaju na nivou suočavanja koje se koristi za komunikaciju s korisnicima. No, cilj je stvoriti takve modele koji bi mogli učiti ljude o hemiji, ali ne i kako napraviti hemijsko oružje. To je onaj dio koji AI ne razumije, a ljudi, priznaje Altman, ne znaju kako AI funkcioniše "u pozadini" pa ni kako riješiti taj problem.
Još nismo riješili interpretabilnost, istakao je Altman, sugerišući da firma tek treba shvatiti kako ući u trag funkcionisanja svojih modela vještačke inteligencije. Nakon daljeg ispitivanja trebaju li izdati nove i snažnije modele, rekao je, ovi se sistemi generalno smatraju sigurnima i robusnima.
Altman je dodao da oni ne razumiju šta se događa u vašem mozgu na nivou neurona po neurona, te slijede neka standardna pravila da bi razumjeli kako bi ljudski um želio objasniti bilo koji određeni upit.
Upravo priznanje kako ni kompanija koja je razvila ChatGPT zapravo ne zna kako vještačka inteligencija funkcioniše u pozadini, ono je što zabrinjava sve više stručnjaka koji pozivaju na veće ulaganje u sigurnost vještačke inteligencije.
Međutim, Altman smatra da će se sigurnost razviti s daljim razvojem i razumijevanjem vještačke inteligencije.
Čini mi se da što više možemo razumjeti što se događa u ovim modelima, to bolje, istakao je Altman.
Cjelokupni intervju možete pogledati u priloženom videu, prenosi "Zimo".