DEMONSTRACIJA SPOSOBNOSTI

AI je sličnija ljudima nego što mislimo, neki modeli čak i ‘zabušavaju na poslu’

Čini se kako su modeli umjetne inteligencije sličniji ljudima nego što bismo to mogli zamisliti. Naime, ni oni nisu imuni na malo "ljenčarenja".

Anthropicov trenutni model umjetne inteligencije, Claude 3.5 Sonnet, pripremio je pravo iznenađnje tokom demonstracije svojih sposobnosti. Dok su programeri pokušavali snimiti demonstraciju Claudeovih mogućnosti kodiranja, AI je imao druge ideje.

Kako se vidi u videu koji su objavili, Claude u jednom trenutku prestaje s kodiranjem, otvara Googleov pretraživač i retražuje fotografije Nacionalnog parka Yellowstone. Da se radi o čovjeku, rekli bismo da mu je dosadilo pisati kod te je potražio malo "razbibrige".

U drugom primjeru, programeri su snimali što se sve događa na ekranu, a Claude je zaustavio snimanje i uzrokovao gubitak svih snimaka. Iz Anthropica ističu kako vjeruju da taj postupak nije bio namjeran, već da je riječ o greški.

S obzirom na to da Anthropic reklamira Claude 3.5 Sonnet kao "AI agenta" koji može "koristiti računare na isti način na koji to ljudi rade", odnosno da može "preuzeti kontrolu nad radnom površinom i raditi umjesto čovjeka", činjenica da se koji put "poželi odmoriti" možda i nije najbolja reklama.

Jer očito je da je Claude još daleko od savršenog.

Iako je to trenutno stanje tehnologije, Claudeovo korištenje računala ostaje sporo i često podložno greškama, rekli su iz kompanije. Postoje brojne radnje koje ljudi rutinski rade na računarima (povlačenje, zumiranje i tako dalje) koje Claude još ne može izvesti.

Zanimljivo je da su iz Anthropica objavili greške koje su većinom bezopasne, no logično je postaviti pitanje - griješi li i u ozbiljnijim situacijama? Primjerice, što kad Claude umjesto da piše kod, počne otvarati korisnikove društvene mreže i objavljivati statuse.

Budući da korištenje računara može pružiti novi vektor za poznatije prijetnje kao što su spam, dezinformacije ili prijevare, zauzimamo proaktivan pristup za promicanje njegove sigurne implementacije, ističu iz Anthropica.

Kako dodaju, to uključuje implementaciju novih klasifikatora za prepoznavanje kada se umjetna inteligencija koristi za obavljanje označenih aktivnosti, poput objavljivanja na društvenim medijima i pristupanja vladinim web stranicama.