"Meta", "Antropik", "Alibaba", "Mistral" i druge tehnološke kompanije već nekoliko godina predstavljaju velike jezičke modele otvorenog koda, ali izgleda da je "Meta" prva koja ima zaista dobar razlog za to.
Zuckerbergova korporacija mijenja zaposlene vještačkom inteligencijom na veoma specifičan način. I, prema ocjeni nekih, to je odlična stvar.
Mark Zakerberg je u posljednje vrijeme učinio dosta da popravi svoj imidž u javnosti. To može da bude rezultat pažljivog planiranja jer mnogi direktori tehnoloških kompanija imaju loš imidž. Zajedno sa novom slikom direktora i kompanije, "Meta" je prihvatila ideologiju otvorenog koda u oblasti razvoja jezičkih modela Lama (Llama AI).
Kompanija koja je sinonim za vještačku inteligenciju zahvaljujući četbotu ChatGPT, "OpenAI" (u prevodu sa engleskog jezika Otvorena vještačka inteligencija) počela je od otvorenog koda, ali se brzo brzo zatvorila da bi se fokusirala na profit.
Dok je nekoliko kompanija slijedilo njihov primjer objavljivanjem svojih modela, malo njih je promjenljive modele učinilo dostupnim na način na koji je to učinila "Meta".
U početku su ove strategije izgledale kao rješenja koja traže probleme. Modeli su mogli da se koriste pri osmišljavanju reklama, pisanju svih mogućih tekstova, za virtuelnu stvarnost i mnogo toga još.
Mogućnosti su neograničene, ali trenutne primjene u stvarnom svijetu nisu. Alat jeste zanimljiv, ali jednostavno ne postoji pravi poslovni cilj osim da "bude najbolja vještačka inteligencija otvorenog koda".
Međutim, sa izlaskom Lame 3.2, "Meta" se okrenula ka jednom veoma važnom cilju koji direktno utiče na njihov krajnji rezultat i održivi rast njihove platforme društvenih medija.
Ključ je u uređivanju
Moderiranje sadržaja i njegovanje zajednice je žila kucavica društvenih medija. Bez neke mjere moderacije ili barem biranja korisnog sadržaja, dolazimo do platformi koje postaju toksične i destruktivne za zajednice za koje je bilo planirano da podstaknu njihov razvoj.
Neke platforme su zbog profita povećale toleranciju na agresivne reakcije (kao na primjer X, to jest bivši Tviter) i to toliko da je koncept uređivanja potpuno izgubljen.
Tamo gdje ste nekada mogli da nađete druge ljude sličnih interesovanja i njihove zanimljive sadržaje, sada ćete naći pustoš koji ostaje iza vrištanja i mržnje. Sve je dizajnirano tako da vas uvrijedi, naljuti, da vas natjera da gubite svoje dragocijeno vrijeme reagujući.
Kada označite nešto kao sadržaj koji zadovoljava vaše potrebe ili, pak, kao štetan, čovjek mora da provjeri to što ste označili da bi odlučio da li se zaista krše neka pravila. Ovo djeluje kao normalno i neophodno.
Neki bi pretpostavili da bi mnoge takve prijave mogle biti pretjerana reakcija korisnika. Naravno, neko je objavio neki štetni politički sadržaj, ali da li je to zaista prekršilo pravila? Možda. Tu je provjera korisna i od pomoći.
Međutim, najčešće ne razmišljamo o lošim namjerama. Nije riječ o upornom trolovanju komšije u Fejsbuk grupi malog grada, već prave loše namjere – da se neko zaista povrijedi, muči, zlostavlja itd.
Postoje stvarni ljudi koji objavljuju takav sadržaj i to na mjestima gdje bi mogao da izazove još veću štetu. Kada kliknete na "Prijavi", neki čovjek mora da pogleda sporan sadržaj i utvrdi da li su pravila prekršena.
I to je dovoljno šokantno. Ali ako je pregledanje takvog sadržaja posao koji neko radi osam do 10 sati dnevno i iznova i iznova gleda potresne ili užasne slike i sadržaje, to ne može biti prijatno. Svakog dana, ljudska bića koja pokušavaju da zaštite zajednicu bivaju podvrgnuta takvoj mentalnoj torturi.
Rješenje se već nazire
Već neko vrijeme "Meta" radi na modelima zasnovanim na vještačkoj inteligenciji koji se mogu primijeniti u oblastima zaštite. Jedan od rezultata je LLama-Guard-3–1B. Oznaka 1B ukazuje na to da je model treniran na jednoj milijardi parametara. Takvi modeli su veoma mali u okvirima velikih jezičkih modela, ali ono što je dobra vijest je da "Meta" aktivno prilagođava svoje skupove podataka za ovu funkcionalnost.
Poređenja radi, model 1B vjerovatno može da radi na novijim telefonima. Nešto veći modeli od 32B ili veći (poput pojedininih Metinih modela od 405B) su vjerovatno korisniji za detaljan ili nijansiran rad, koji se obično izvodi na većim serverima.
Otvoreni model LLama-Guard-3–1B (slobodan za preuzimanje) može da omogući malim kompanijama da sprovedu neku vrstu kontrole nad svojim zajednicama i sadržajem.
Modeli namjenjeni oblastima zaštite, smatraju se multimodalnim, što uključuje funkcionalnosti kao što su kategorizacija i analiza slika ili kreiranje sažetaka teksta.
Možete takvom alatu dati sliku, a on će ukratko 'ispričati' šta slika prikazuje. "Meta" tako zapravo pokušava da riješi problem svojih zaposlenih.
Evo posla koji čovjek ne mora da radi
Postoje poslovi koje ljudi žele da rade, ali i oni koje ljudi ne žele da rade, ali rade, postoje neprijatni poslovi koje ljudi rade koje može da radi mašina, a postoje poslovi koje ljudi ne bi ni trebalo da rade. Takvi poslovi konstantno nanose štetu radniku.
Automatizacija prerade nuklearnog otpada ili izuzetno toksičnih materijala neće na ići na otpor. Međutim, ono što mnogi ne shvataju je da posao prebiranja po toksičnom sadržaju nije ništa drugačiji.
To su poslovi koje ljudi ne bi trebalo da rade. Oni su neophodni za bezbjednost i dobrobit svih, ali na račun pojedinca koji svakodnevno strada na svom radnom mestu. Zato su takvi poslovi savršeni za prebacivanje na teren mašinske inteligencije.
Iako je nephodna dodatna regulacija, kao i veoma pažljivo definisanje podataka za treniranje modela, ovo će biti sjajna primjena vještačke inteligencije.
Da, ljude će zamijeniti vještačka inteligencija i to je, u ovom slučaju, odlična vijest, prenosi RTS.