Dobro pitanje

Može li čovječanstvo kontrolirati smrtonosna AI oružja?

Utrka u naoružanju ponovno se razbuktava, ponajviše zahvaljujući ubrzanom razvoju smrtonosnih autonomnih oružanih sustava (Lethal Autonomous Weapon Systems, LAWs), uključujući dronove opremljene umjetnom inteligencijom.

Ministarstvo odbrane SAD-a, podsjeća Nature, dosad je izdvojilo milijardu dolara za program Replicator kojem je zadatak izgraditi flotu malih, naoružanih autonomnih vozila.

Strah od budućnosti

Eksperimentira se s podmornicama, tenkovima i brodovima koji koriste umjetnu inteligenciju za upravljanje i pucanje, a bespilotne letjelice koristite AI za prepoznavanje slika kako bi se otkrile i pogodile mete. LAWs ne trebaju AI za rad, ali tehnologija im dodaje brzinu i sposobnost izbjegavanja obrane. Mnogi strahuju od budućnosti u kojoj će rojevi jeftinih AI dronova-ubojica napadati pojedine ciljeve u masi koristeći tehnologije prepoznavanje lica, piše Bug.hr.

"Lakše je tehnološki osposobiti sustav da pronađe ljudsko biće i ubije ga nego razviti samovozeći automobil; to je projekt za postdiplomce", upozorava informatičar Stuart Russell s Kalifornijskog sveučilišta u Berkeleyju koji je 2017. surađivao na izradi videa "Slaughterbots" koji je ukazivao na moguće rizike.

Tema Generalne skupštine UN-a 

Pojava umjetne inteligencije na bojnom polju potaknula je raspravu među istraživačima, pravnim stručnjacima i etičarima.

Optimisti tvrde da bi oružje potpomognuto umjetnom inteligencijom moglo biti preciznije od oružja kojim upravljaju ljudi te tako smanjiti kolateralnu štetu i broj poginulih i osakaćenih vojnika. Pesimisti strahuju od katastrofalnih pogrešaka, dok etičare brine princip po kojem se odluka o ciljanju i gađanju mete prepušta algoritmu.