ODBIO IZVRŠITI ZADATAK

ChatGPT pokazuje znakove “lijenosti”, programeri totalno zbunjeni

Programeri OpenAI-ja javno su priznali čudno ponašanje, ali su zbunjeni zašto se to događa

Dok su trenutni LLM i generativni AI modeli daleko od razvoja ljudske inteligencije, korisnici su nedavno primijetili da ChatGPT pokazuje znakove “lijenosti”, urođene ljudske osobine. Ljudi su taj trend počeli primjećivati ​​krajem novembra.

Korisnik na Redditu je tvrdio da je tražio od ChatGPT-a da ispuni CSV (vrijednosti odvojene zarezima) datoteku s više unosa. Zadatak je nešto što računar može lako izvršiti – čak i početni programer može stvoriti osnovnu skriptu koja to radi. Međutim, ChatGPT je odbio zahtjev, u biti navodeći da je pretežak, i rekao korisniku da to učini sam koristeći jednostavan predložak koji može pružiti.

“Zbog opsežne prirode podataka, potpuno izdvajanje svih proizvoda bilo bi prilično dugo”, rekla je mašina. “Međutim, mogu dati datoteku s ovim jednim unosom kao predložak, a vi možete ispuniti ostale podatke prema potrebi.”

Programeri OpenAI-ja javno su priznali čudno ponašanje, ali su zbunjeni zašto se to događa. Kompanija je uvjerila korisnike da istražuje problem i da će raditi na njegovom rješavanju.

Neki su korisnici pretpostavili da bi to moglo oponašati ljude koji imaju tendenciju usporavanja tokom praznika. Teorija je nazvana “hipoteza zimskih praznika”. Ideja je da je ChatGPT naučio iz interakcije s ljudima da su kasni novembar i decembar vrijeme za opuštanje. Uostalom, mnogi ljudi koriste praznike kao ispriku da provedu više vremena sa svojom porodicom. Stoga ChatGPT vidi manje akcije. Međutim, jedna je stvar postati manje aktivan, a druga je potpuno odbiti posao.

Amaterski istraživač AI-ja Rob Lynch testirao je hipotezu o zimskim praznicima tako što je ubacio ChatGPT API zadatke lažiranim sistemskim datumima u maju i decembru i zatim prebrojao znakove u odgovorima bota. Čini se da je bot pokazao “statistički značajne” kraće odgovore u decembru za razliku od maja, ali to nipošto nije konačno, iako su njegovi rezultati neovisno reproducirani.

Lynch je proveo svoj test nakon što je Will Depue iz OpenAI-ja potvrdio da AI model pokazuje znakove “lijenosti” ili odbijanja rada u laboratoriju. Depue je aludirao da je ovo “čudna” pojava koju su programeri već iskusili.

“Ne kažem da nemamo problema s pretjeranim odbijanjima (definitivno imamo) ili drugim čudnim stvarima (radimo na rješavanju nedavnog problema s lijenošću), ali to je proizvod iterativnog procesa posluživanja i pokušaja podrške toliko mnogo slučajeva upotrebe odjednom”, tvitao je.

Nekima se problem može činiti beznačajnim, ali mašina koji odbija raditi nije smjer u kojem bi iko želio da AI ide. LLM je alat koji bi trebao biti usklađen i raditi ono što korisnik traži, sve dok je zadatak unutar njegovih parametara – očito, ne možete tražiti od ChatGPT-a da iskopa rupu u dvorištu. Ako alat ne služi svojoj namjeni, to nazivamo kvarom.