U nedavno obavljenom istraživanju su Microsoft i OpenAI otkrili pokušaje ruskih, sjevernokorejskih, iranskih i kineskih grupa da korištenjem ChatGPT-a istraže mete, poboljšaju skripte i razviju tehnike društvenog inženjeringa
Microsoft i OpenAI su otkrili da hakeri već koriste velike jezičke modele kao što je ChatGPT kako bi poboljšali i usavršili svoje postojeće cyber napade.
U nedavno obavljenom istraživanju su Microsoft i OpenAI otkrili pokušaje ruskih, sjevernokorejskih, iranskih i kineskih grupa da korištenjem ChatGPT-a istraže mete, poboljšaju skripte i razviju tehnike društvenog inženjeringa.
"Grupe koje se bave cyber kriminalom, oni koji prijete državama, kao i drugi neprijatelji, testiraju različite tehnologije umjetne inteligencije koje se pojavljuju, kako bi pokušali razumjeti njihovu potencijalnu vrijednost za svoje operacije, ako i sigurnosne kontrole koje će možda morati zaobići", saopćeno je iz Microsofta.
Grupa Strontium, koja je povezana s ruskim vojnim obavještajnim službama, koristi LLM kako bi "razumjela protokole satelitske komunikacije,, tehnologije radarskog snimanja i specifične tehničke parametre. Hakerska grupa, poznata i kao APT28 ili Fancy Bear, bila je aktivna tokom rusko - ukrajinskog rata, a ranije se umiješala te utjecala na predsjedničku kampanju Hillary Clinton 2016. godine.
Grupa je također koristil LLM za pomoć u "osnovnom zadacima skriptiranja, uključujući manipulaciju fajlovima, odabir podataka, regularne izraze i višestruku obradu, kako bi potencijalno automatizirala ili optimizirala tehničke operacije", navodi Microsoft.
Sjevernokorejska hakerska grupa Thallium koristi LLM-ove za istraživanje ranjivosti te izradu sadržaja za phishing kampanje. Iranski hakeri Curium također koriste LLM-ove za generiranje phishing emailova, pa čak i za kod namijenjen izbjegavanju otrivanja od strane antivirusnih aplikacija. Kineski hakeri povezani s državom također koriste LLM za istraživanje, pisanje skripti, prijevode i usavršavanje svojih postojećih alata.
Postoji bojazan u vezi s upotrebom AI tehnologije u cyber napadima, posebno jer su se pojavili AI alati kao što su WormGPT i FraudGPT, koji pomažu u kreiranju zlonamjernih emailova i cracking alata. Visokih zvaničnik Agencije za nacionalnu sigurnost je upozorio da hakeri koriste AI da učine svoje phishing emailove uvjerljivijim.
Microsoft i OpenAI nisu otkrili nikakve "značajne napade" korištenjem LLM-ova, no kompanije su ugasile sve račune i imovinu povezanu s ovim hakerskim grupama.
"Smatramo da je ovo važno istraživanje koje treba objaviti kako bismo razotkrili prijeteće poteze i podijelili informacije o tome kako ih blokiramo i suprotstavljamo im se", navode iz Microsofta.
Iako se čini da je upotreba AI u cybernapadima trenutno ograničena, Microsoft upozorava na buduće slučajeve upotrebe poput lažnog predstavljanja glasom.
"Prevara putem AI tehnologije je još jedna velika briga. Sinteza glasa je primjer, jer uzorak glasa od tri sekunde može istrenirati model da zvuči kao bilo ko. Čak i nešto bezazleno poput vašeg glasa za govornu poštu može se iskoristiti za dovoljan uzorak", dodaje se.
Očekivano, Microsoftovo rješenje je korištenje AI tehnologije kao odgovor na AI napade.
"AI može pomoći hakerima da unesu više sofisticiranosti u svoje napade, a oni imaju resurse za to. Vidjeli smo to kod više od 300 prijetećih aktera koje Microsoft prati, a i mi koristimo AI za zaštitu, otkrivanje i odgovor", rekla je Homa Hayatyfar, glavna menadžerica za analitiku detekcije u Microsoftu.
Microsoft razvija Security Copilot, novog AI asistenta koji je namijenjen profesionalcima za cyber sigurnost, kako bi mogli identificirati probleme i bolje razumjeti ogromnu količinu signala i podataka koji se svakodnevno generiraju putem alata za cyber sigurnost. Softverski gigant također radi a svojoj softverskoj sigurnosti nakon velikih Azure cloud napada, kao i slučajeva u kojim su ruski hakeri špijunirali rukovodioce Microsofta.