NAJAVA SARADNJE

Google, Microsoft i drugi tehnološki divovi osnivaju savez CoSAI za jačanje sigurnosti umjetne inteligencije

Umjetna inteligencija (AI) je tehnologija koju trenutno aktivno razvijaju velike tehnološke kompanije, koje se natječu za vodeću poziciju na tržištu. Nedavno su se brojni tehnološki divovi odlučili odmaknuti od natjecateljskog mentaliteta i sarađivati na rješavanju fragmentiranog obrasca sigurnosti umjetne inteligencije. Osnovali su savez pod nazivom AI Security Alliance (Koalicija za sigurnu umjetnu inteligenciju, CoSAI) s ciljem formuliranja sigurnosnih standarda za AI.

Ciljevi CoSAI-a

  • Formuliranje sigurnosnih specifikacija za lanac opskrbe softverom sistema umjetne inteligencije.
  • Osiguranje da se AI kod izgrađuje sa sigurnim i pouzdanim softverom i prati kroz konstruiranje za ranije otkrivanje problema.
  • Stvaranje zaštitnih mjera i okvira za identifikaciju i odgovor na sigurnosne prijetnje umjetne inteligencije.
  • Definiranje kodeksa ponašanja za razvoj i sigurnu upotrebu umjetne inteligencije.
  • Pružanje kontrolnog popisa za praktičare u njihovim procjenama.

Heather Adkins, potpredsjednica za sigurnosno inžinjerstvo u Googleu, vjeruje da će CoSAI pomoći malim, srednjim i velikim organizacijama da sigurno i odgovorno integriraju umjetnu inteligenciju, iskorištavajući njene prednosti uz ublažavanje rizika. CoSAI se temelji na sigurnosnom okviru umjetne inteligencije “SAIF” koji je Google predložio prošle godine. Koristi standardizirane okvire i alate otvorenog koda za pomoć programerima u izgradnji sigurnije umjetne inteligencije,sprečavanje krađe i zlouporabe modela umjetne inteligencije, uključivanje zaštite od zlonamjernih podataka koji utječu na tačnost obuke modela itd.

Planovi CoSAI-a

  • Formuliranje sigurnosnih specifikacija za lanac opskrbe softverom sistema umjetne inteligencije.
  • Osiguranje da je sistem umjetne inteligencije izgrađen sa sigurnim i pouzdanim softverom i podacima.
  • Otkrivanje problema u ranom stadiju razvoja.
  • Uspostava zaštitnih mjera za prepoznavanje sigurnosnih prijetnji umjetne inteligencije i odgovor na njih.
  • Definiranje specifikacija za razvoj sistema umjetne inteligencije za osiguranje sigurne upotrebe.
  • Korištenje sistema ocjenjivanja za procjenu sigurnosti sistema umjetne inteligencije.
  • Pomoć u promicanju i upravljanju razvojem projekta.
  • Nadziranje projekta kroz tehnički upravljački odbor sastavljen od stručnjaka za umjetnu inteligenciju iz akademske zajednice i industrije.