U političkim krugovima, rasprave o umjetnoj inteligenciji (AI) uvijek suprotstavljaju Kinu i Sjedinjene Države u utrci za tehnološku nadmoć. Ako su podaci ključni resurs, čini se da je Kini, sa svojih preko milijardu građana i slabom zaštitom od državnog nadzora, suđena pobjeda. Kai-Fu Lee, poznati informatičar, ustvrdio je da su podaci nova nafta, a Kina novi OPEC. Međutim, ako je vrhunska tehnologija ono što daje prednost, onda Sjedinjene Države, sa svojim univerzitetskim sistemom svjetske klase i talentiranom radnom snagom, još uvijek imaju priliku preći u vodstvo. Za obje zemlje stručnjaci pretpostavljaju da će nadmoć u umjetnoj inteligenciji prirodno dovesti do šire ekonomske i vojne nadmoći, piše Foreign Affairs.
Ali razmišljati o umjetnoj inteligenciji u smislu utrke za dominacijom znači propustiti temeljnije načine na koje umjetna inteligencija transformira globalnu politiku. Umjetna inteligencija neće toliko transformirati rivalstvo između sila koliko će transformirati same rivale. Sjedinjene Države su demokratija, dok je Kina autoritarni režim, a mašinsko učenje izaziva svaki politički sistem na svoj način. Izazovi za demokratije poput Sjedinjenih Država previše su očigledni. Mašinsko učenje može povećati polarizaciju - reinženjering online svijeta za promicanje političke podjele. To će sigurno povećati dezinformacije u budućnosti, generirajući uvjerljive lažne vijesti velikih razmjera. Izazovi autokratijama su suptilniji, ali vjerovatno korozivniji. Kao što mašinsko učenje odražava i jača podjele demokratije, ono može zbuniti autokratije, stvarajući lažni dojam konsenzusa i prikrivajući temeljne društvene pukotine sve dok ne bude prekasno.
Rani pioniri umjetne inteligencije, uključujući politologa Herberta Simona, shvatili su da tehnologija umjetne inteligencije ima više zajedničkog s tržištima, birokratijama i političkim institucijama nego s jednostavnim inženjerskim aplikacijama. Još jedan pionir umjetne inteligencije, Norbert Wiener, opisao je AI kao "kibernetski" sistem - onaj koji može odgovoriti i prilagoditi se povratnim informacijama. Ni Simon ni Wiener nisu predvidjeli da će mašinsko učenje dominirati umjetnom inteligencijom, ali njegova evolucija odgovara njihovom načinu razmišljanja. Facebook i Google koriste mašinsko učenje kao analitički mehanizam samoispravljajućeg sistema, koji kontinuirano ažurira svoje razumijevanje podataka ovisno o tome hoće li njegova predviđanja uspjeti ili ne. Upravo je ta petlja između statističke analize i povratnih informacija iz okoline učinila mašinsko učenje tako nevjerovatnom silom.
Demokratija i autoritarizam kao kibernetički sistemi
Ono što se daleko manje dobro razumije jest da su demokratija i autoritarizam također kibernetički sistemi. Pod oba oblika vladavine, vlade donose politike i zatim pokušavaju shvatiti jesu li te politike uspjele ili nisu uspjele. U demokratijama birači i glasovi daju snažnu povratnu informaciju o tome je li određeni pristup stvarno učinkovit. Autoritarni sistemi historijski su puno teže dobivali dobre povratne informacije. Prije informatičkog doba oslanjali su se ne samo na domaće obavještajne podatke nego i na peticije i tajna istraživanja mišljenja kako bi pokušali otkriti u šta vjeruju njihovi građani.
Sada mašinsko učenje remeti tradicionalne oblike demokratskih povratnih informacija 'glasački listići i glasovi) budući da nove tehnologije olakšavaju dezinformacije i pogoršavaju postojeće predrasude – uzimajući predrasude skrivene u podacima i samouvjereno ih pretvarajući u netačne tvrdnje. U međuvremenu, autokratima koji petljaju u mraku, mašinsko učenje izgleda kao odgovor na njihove molitve. Takva tehnologija može reći vladarima sviđa li se njihovim podanicima ono što rade bez gnjavaže s anketama ili političkim rizicima otvorenih rasprava i izbora. Iz tog su razloga mnogi promatrači zabrinuti da će napredak u umjetnoj inteligenciji samo ojačati ruke diktatora i dodatno im omogućiti da kontroliraju svoja društva.
Istina je kompliciranija. Pristranost je vidljiv problem za demokratije. Ali budući da je vidljiviji, građani ga mogu ublažiti drugim oblicima povratnih informacija. Kada, na primjer, rasna grupa vidi da su algoritmi za zapošljavanje pristrani protiv nje, može protestovati i tražiti obeštećenje s određenim izgledima za uspjeh. Autoritarne zemlje vjerovatno su barem jednako sklone pristranosti kao i demokratije, no možda i više. Velik dio ove pristranosti vjerovatno će biti nevidljiv, posebno onima koji donose odluke na vrhu. Zbog toga je mnogo teže ispraviti problem, čak i ako vođe vide da nešto treba ispraviti.
Suprotno uvriježenom mišljenju, umjetna inteligencija može ozbiljno potkopati autokratske režime jačanjem njihovih vlastitih ideologija i fantazija na račun boljeg razumijevanja stvarnog svijeta. Demokratske zemlje mogle bi otkriti da, kada je u pitanju umjetna inteligencija, ključni izazov dvadeset prvog stoljeća nije pobjeda u bitci za tehnološku dominaciju. Umjesto toga, morat će se boriti s autoritarnim zemljama koje su se našle u žrvnju spirale zabluda koju pokreće AI
Loše povratne informacije
Većina rasprava o umjetnoj inteligenciji ima veze sa mašinskim učenjem - statističkim algoritmima koji izdvajaju odnose između podataka. Ovi algoritmi pogađaju: Postoji li pas na ovoj fotografiji? Hoće li ova šahovska strategija pobijediti u partiji u deset poteza? Koja je sljedeća riječ u poludovršenoj rečenici? Takozvana objektivna funkcija, matematičko sredstvo bodovanja ishoda, može nagraditi algoritam ako tačno pogodi. Ovaj proces je način na koji radi komercijalna umjetna inteligencija. YouTube, na primjer, želi zadržati svoje korisnike angažiranima, tako da gledaju više videozapisa kako bi im se oglasi nastavili vrtjeti. Ciljna funkcija osmišljena je za maksimiziranje angažmana korisnika. Algoritam pokušava ponuditi sadržaj koji će zadržati korisnike na stranici. Ovisno o tome je li njegova pretpostavka tačna ili pogrešna, algoritam ažurira svoj model onoga što će korisnik vjerovatno odgovoriti.
Sposobnost mašinskog učenja da automatizira ovu povratnu petlju s malo ili nimalo ljudske intervencije preoblikovala je e-trgovinu. Možda će jednog dana omogućiti potpuno samovozeće automobile, iako se ovaj napredak pokazao kao mnogo teži problem nego što su inženjeri očekivali. Razvoj autonomnog oružja još je teži problem. Kad algoritmi naiđu na doista neočekivane informacije, često ih ne razumiju. Informacije koje čovjek može lako razumjeti, ali koje mašinsko učenje pogrešno klasificira - poznate kao "suparnički primjeri" - mogu loše djelovati. Na primjer, crno-bijele naljepnice postavljene na znak stop mogu spriječiti vizualni sistem samovozećeg automobila da prepozna znak. Takve ranjivosti sugeriraju očita ograničenja u korisnosti umjetne inteligencije u ratnim uvjetima.
Uranjanje u složenost mašinskog učenja pomaže u razumijevanju rasprava o tehnološkoj dominaciji. To objašnjava zašto neki mislioci, poput računalnog naučnika Leeja, vjeruju da su podaci toliko važni. Što više podataka imate, brže možete poboljšati izvedbu svog algoritma, radeći malu promjenu za malom promjenom dok ne postignete odlučujuću prednost. Ali mašinsko učenje ima svoje granice. Na primjer, usprkos golemim ulaganjima tehnoloških kompanija, algoritmi su daleko manje učinkoviti nego što se to obično misli u navođenju ljudi da kupuju jedan gotovo identičan proizvod umjesto drugog. Teško je pouzdano manipulirati plitkim preferencijama, a vjerovatno je daleko teže promijeniti duboko uvriježena mišljenja i uvjerenja ljudi.
Slična ograničenja opće umjetne inteligencije
Opća umjetna inteligencija, sistem koji bi mogao izvući lekcije iz jednog konteksta i primijeniti ih u drugom, kao što to mogu ljudi, suočava se sa sličnim ograničenjima. Netflixovi statistički modeli sklonosti i preferencija njegovih korisnika gotovo su sigurno različiti od Amazonovih, čak i kada oboje pokušavaju modelirati iste ljude koji se bore sa sličnim odlukama. Dominacija u jednom sektoru umjetne inteligencije, kao što je pružanje kratkih videa koji drže tinejdžere zaokupljenima (trijumf aplikacije TikTok), ne može se lako pretvoriti u dominaciju u drugom, kao što je stvaranje autonomnih sistema oružja na bojnom polju. Uspjeh algoritma često se oslanja na same ljudske inženjere koji mogu prevesti lekcije kroz različite aplikacije, a ne na samu tehnologiju. Za sada ti problemi ostaju neriješeni.
Pristranost se također može uvući u kod. Kada je Amazon pokušao primijeniti mašinsko učenje na zapošljavanje, uvježbao je algoritam na osnovi podataka iz životopisa koje su regruti ocijenili. Kao rezultat toga, sistem je reproducirao predrasude implicitne u ljudskim odlukama, diskriminirajući životopise žena. Takvi problemi mogu se samoojačati. Kao što je sociolog Ruha Benjamin istaknuo, kad bi kreatori politike koristili mašinsko učenje da bi odlučili kamo poslati policijske snage, tehnologija bi ih mogla navesti da dodijele više policije četvrtima s visokim stopama hapšenja. To bi se moglo događati u procesu slanja više policije u područja s rasnim grupama prema kojima je policija pokazala pristranost te bi moglo dovesti do novih hapšenja koja bi zauzvrat ojačala algoritam u začaranom krugu.
Stara programska poslovica "smeće unutra, smeće van" ima drugačije značenje u svijetu u kojem ulazi utječu na izlaze i obrnuto. Bez odgovarajuće vanjske korekcije, algoritmi mašinskog učenja mogu steći pristrananost prema smeću koje sami proizvode, generirajući petlju lošeg donošenja odluka. Donositelji politika prečesto tretiraju alate za mašinsko učenje kao mudre i nepristrasna proročanstva, a ne kao pogrešive instrumente koji mogu intenzivirati probleme koje navodno rješavaju.
Poziv i odgovor
Politički sistemi također su sistemi povratne sprege. U demokratijama javnost doslovno ocjenjuje i boduje lidere na izborima koji bi trebali biti slobodni i pošteni. Političke stranke daju obećanja s ciljem osvajanja i zadržavanja vlasti. Legalna opozicija naglašava pogreške vlade, dok slobodni mediji izvještavaju o kontroverzama i nedjelima. Nositelji vlasti redovito se suočavaju s biračima i uče jesu li zaslužili ili izgubili povjerenje javnosti, u ciklusu koji se neprestano ponavlja.
Ali povratna informacija u demokratskim društvima ne funkcionira savršeno. Javnost možda nema duboko razumijevanje politike i može kazniti vlade za stvari koje su izvan njihove kontrole. Političari i njihovo osoblje možda pogrešno razumiju šta javnost želi. Opozicija ima poticaja da laže i pretjeruje. Natjecanje na izborima košta, a prave se odluke ponekad donose iza zatvorenih vrata. Mediji mogu biti pristrani ili im je više stalo da zabave svoje potrošače nego da ih pouče.
Svejedno, povratna informacija omogućuje učenje. Političari uče što javnost želi. Javnost saznaje šta može, a šta ne može očekivati. Ljudi mogu otvoreno kritizirati pogreške vlade, a da ne budu zatvoreni. Kako se pojavljuju novi problemi, nove grupe se mogu organizirati da ih objave i pokušaju uvjeriti druge da ih riješe. Sve to omogućuje političarima i vladama da se uključe u složen svijet koji se stalno mijenja.
Feedback u autokracijama
Povratne informacije funkcioniraju vrlo drugačije u autokratijama. Lideri se ne biraju kroz slobodne i poštene izbore, već kroz nemilosrdne bitke za nasljedstvo i često neprozirne sisteme za unutarnje napredovanje. Čak i tamo gdje je suprotstavljanje vladi formalno legalno, ono se obeshrabruje, ponekad brutalno. Ako mediji kritiziraju vladu, riskiraju pravni postupak i nasilje. Izbori, kada se dogode, sustavno se okreću u korist vladajućih. Građani koji se protive svojim vođama ne suočavaju se samo s poteškoćama u organiziranju; riskiraju oštre kazne ako progovare, uključujući zatvor i smrt. Zbog svih ovih razloga, autoritarne vlade često nemaju dobar osjećaj za to kako svijet funkcionira ili što oni i njihovi građani žele.
Takvi se sistemi stoga suočavaju s kompromisom između kratkoročne političke stabilnosti i učinkovitog donošenja politika; želja za prvim potiče autoritarne vođe da blokiraju autsajdere u izražavanju političkih mišljenja, dok potreba za drugim zahtijeva od njih da imaju neku predodžbu o tome što se događa u svijetu i u njihovim društvima. Zbog stroge kontrole informacija, autoritarni vladari ne mogu se osloniti na građane, medije i glasove opozicije da pruže korektivne povratne informacije kao što to mogu demokratski vođe. Rezultat je da riskiraju neuspjeh politike, a što može potkopati njihov dugoročni legitimitet i sposobnost vladanja. Katastrofalna odluka ruskog predsjednika Vladimira Putina da napadne Ukrajinu, na primjer, čini se da se temeljila na netačnoj procjeni ukrajinskog morala i snage njegove vlastite vojske.
Čak i prije izuma mašinskog učenja, autoritarni vladari koristili su se kvantitativnim mjerama kao grubom i nesavršenom zamjenom za povratne informacije javnosti. Uzmimo za primjer Kinu, koja je desetljećima pokušavala kombinirati decentraliziranu tržišnu ekonomiju s centraliziranim političkim nadzorom nekoliko ključnih statistika, posebice BDP-a. Lokalni dužnosnici mogli bi biti unaprijeđeni ako bi njihove regije zabilježile posebno brz rast. Ali ograničena kvantificirana vizija Pekinga nije im dala dovoljno poticaja da se pozabave problemima poput korupcije, duga i zagađenja. Nije iznenađujuće da su lokalni dužnosnici često manipulirali statistikom ili provodili politiku koja je kratkoročno poticala BDP dok su dugoročne probleme ostavljali svojim nasljednicima.
Kineski odgovor na pandemiju
Svijet je primijetio ovu dinamiku tokom početnog kineskog odgovora na pandemiju bolesti COVID-19 koja je započela u provinciji Hubei krajem 2019. Kina je izgradila internetski sistem za prijavu bolesti nakon krize SARS-a 2003., ali umjesto toga sistema, lokalne vlasti u Wuhanu, glavnom gradu Hubeija, kaznile su liječnika koji je prvi prijavio prisutnost zaraze "slične SARS-u". Vlada Wuhana naporno je radila kako bi spriječila da informacije o izbijanju dođu do Pekinga, stalno ponavljajući da "nema novih slučajeva" sve dok se nisu završili važni lokalni politički sastanci. Liječnik Li Wenliang je i sam podlegao bolesti i umro 7. februara, što je izazvalo žestok bijes diljem zemlje.
Peking je tada preuzeo odgovor na pandemiju, usvojivši pristup "nula COVID-a" koji je koristio prisilne mjere za suzbijanje broja slučajeva novozaraženih. Politika je kratkoročno dobro funkcionirala. No, uz ogromnu prenosivost omikron varijante, sve se više čini da je politika nulte borbe protiv COVID-a dovela samo do pirovih pobjeda, zahtijevajući masovna ograničenja koja su ljude ostavila gladnima, a ekonomiju u rasulu. Ali, ostala je uspješna u postizanju jednog ključnog, iako grubog pokazatelja — održavanja niskog broja infekcija.
Čini se da podaci pružaju objektivne mjere koje objašnjavaju svijet i njegove probleme, bez ikakvih političkih rizika i neugodnosti izbora ili slobodnih medija. Ali ne postoji takva stvar kao što je donošenje odluka koje je lišeno politike. Zbrka demokratije i rizik od poremećenih procesa povratnih informacija očiti su svakome ko obraća pozornost na politiku SAD-a. Autokratije pate od sličnih problema, iako su oni manje uočljivi. Dužnosnici koji izmišljaju brojke ili građani koji odbijaju pretočiti svoj bijes u proteste širokih razmjera mogu imati ozbiljne posljedice, čineći loše odluke vjerovatnijim kratkoročno i neuspjeh režima vjerovatnijim dugoročno.
To je zamka?
Najhitnije pitanje nije hoće li Sjedinjene Države ili Kina pobijediti ili izgubiti u utrci za dominaciju umjetne inteligencije, nego način na koji će umjetna inteligencija promijeniti različite povratne veze na koje se demokratije i autokratije oslanjaju pri upravljanju društvima. Mnogi promatrači sugeriraju da će mašinsko učenje, kako postaje sveprisutnije, neizbježno naštetiti demokratiji i pomoći autokratiji. Prema njihovu mišljenju, algoritmi društvenih medija koji optimiziraju angažman, na primjer, mogu potkopati demokratiju narušavajući kvalitetu povratnih informacija građana. Dok ljudi klikaju video za videom, YouTubeov algoritam nudi šokantan i alarmantan sadržaj kako bi ih zadržao. Ovaj sadržaj često uključuje teorije zavjere ili ekstremne političke stavove koji mame građane u mračnu zemlju čudesa u kojoj je sve naopako.
Nasuprot tome, mašinsko učenje bi trebalo pomoći autokratijama omogućavanjem veće kontrole nad njihovim ljudima. Historičar Yuval Harari i mnoštvo drugih naučnika tvrde da umjetna inteligencija "favorizira tiraniju". Prema ovom kampu, AI centralizira podatke i moć, dopuštajući vođama da manipuliraju običnim građanima, nudeći im informacije koje su takve da pritišću njihove "emocionalne gumbe". Ovaj beskonačno ponavljajući proces povratnih informacija i odgovora trebao bi proizvesti nevidljiv i učinkovit oblik društvene kontrole. U ovom slučaju, društveni mediji omogućuju autoritarnim vladama da ispitaju puls javnosti, kao i da zarobe njezino srce.
Ali ti argumenti počivaju na nesigurnim temeljima. Iako curenje informacija unutar Facebooka sugerira da algoritmi doista mogu voditi ljude prema radikalnom sadržaju, nedavna istraživanja pokazuju da algoritmi sami po sebi ne mijenjaju ono što ljudi traže. Ljudi koji pretražuju ekstremne YouTube videozapise vjerovatno će biti usmjereni prema više toga što žele, ali ljudi koji nisu zainteresirani za opasan sadržaj vjerovatno neće slijediti preporuke algoritama. Kad bi povratne informacije u demokratskim društvima postajale sve poremećenije, mašinsko učenje ne bi bilo potpuno krivo; samo bi pružio ruku pomoći.
Ne postoje dobri dokazi da mašinsko učenje omogućuje vrste generalizirane kontrole uma koja će izdubiti demokratiju i ojačati autoritarnost. Ako algoritmi nisu vrlo učinkoviti u poticanju ljudi da kupuju stvari, vjerovatno su puno lošiji u poticanju da promijene mišljenje o stvarima koje dotiču bliske vrijednosti, poput politike. Tvrdnje da je Cambridge Analytica, britanska kompanija za političko savjetovanje, upotrijebila neku magičnu tehniku kako bi namjestila predsjedničke izbore u SAD-u 2016. u korist Donalda Trumpa, rasplinute su. Čini se da se navodni "tajni sastojak" kompanije koji je kompanija dala Trumpovoj kampanji sastojao od standardnih psihometrijskih tehnika ciljanja koje su ograničene koristi - korištenja anketa ličnosti za kategorizaciju ljudi.
Doista, potpuno automatizirani autoritarizam vođen podacima može se pokazati kao zamka za države poput Kine koje koncentriraju vlast u sićušnoj izoliranoj grupi donositelja odluka. Demokratske zemlje imaju mehanizme korekcije - alternativne oblike povratnih informacija građana koji mogu korigirati vlade ako skrenu s puta. Autoritarne vlade nemaju takav mehanizam. Iako bi se sveprisutni državni nadzor mogao pokazati učinkovitim u kratkom roku, postoji opasnost da će autoritarne države biti potkopane oblicima samopojačavajućih pristranosti koje omogućuje mašinsko učenje. Kako država široko koristi mašinsko učenje, ideologija vođe će oblikovati način na koji se koristi mašinsko učenje, ciljeve oko kojih se optimizira i kako tumači rezultate. Podaci koji se pojavljuju kroz ovaj proces vjerovatno će odražavati predrasude vođe upravo o njemu.
'Pranje novca za pristranost'
Kako je objasnio tehnolog Maciej Ceglowski, maašinsko učenje je "pranje novca za pristranost", "čist, matematički aparat koji statusu quo daje auru logičke neizbježnosti". Šta će se dogoditi, na primjer, kad države počnu koristiti mašinsko učenje kako bi uočile pritužbe na društvenim mrežama i uklonile ih? Čelnicima će biti teže uočiti i ispraviti političke pogreške – čak i kada pogreške štete režimu. Studija iz 2013. spekulirala je da je Kina sporija u uklanjanju pritužbi na internetu nego što bi se moglo očekivati, upravo zato što je takvo prigovaranje pružalo korisne informacije vodstvu. Ali sada kada Peking sve više naglašava društvenu harmoniju i nastoji zaštititi visoke dužnosnike, taj pristup će bit teže održati.
Kineski predsjednik Xi Jinping svjestan je ovih problema u barem nekim područjima politike. Dugo je tvrdio da je njegova kampanja protiv siromaštva — nastojanje da se ukloni osiromašenje ruralnih područja — bila značajna pobjeda koju pokreću pametne tehnologije, veliki podaci i umjetna inteligencija. No od tada je priznao nedostatke u kampanji, uključujući slučajeve u kojima su dužnosnici izgurali ljude iz njihovih ruralnih domova i smjestili ih u urbane stanove kako bi se igrali statistikama o siromaštvu. Dok su preseljeni ponovno pali u siromaštvo, Xi se zabrinuo da "ujednačeni kvantitativni ciljevi" za razine siromaštva možda neće biti pravi pristup u budućnosti. Podaci doista mogu biti nova nafta, ali mogu zagađivati, a ne povećati sposobnost vlade da vlada.
Ovaj problem ima implikacije na kineski takozvani sistem društvenog kreditiranja, skup institucija za praćenje prosocijalnog ponašanja koje zapadni komentatori opisuju kao savršeno funkcionirajući "nadzorni režim pokretan umjetnom inteligencijom koji krši ljudska prava". Kao što su stručnjaci za informacijsku politiku poput Shazede Ahmeda i Karen Hao istaknuli, sistem je zapravo mnogo neuredniji. Kineski sistem društvenog kreditiranja zapravo više sliči američkom kreditnom sistemu, koji je reguliran zakonima kao što je Zakon o poštenom kreditnom izvješćivanju, nego savršenoj orvelovskoj distopiji.
Više mašinskog učenja također može navesti autoritarne režime da udvostruče loše odluke. Ako je mašinsko učenje uvježbano za prepoznavanje mogućih disidenata na temelju zapisa o hapšenjima, ono će vjerovatno generirati samopojačavajuće predrasude slične onima vidljivim u demokratijama - odražavajući i potvrđujući uvjerenja administratora o nefavoriziranim društvenim grupama i neumitno održavajući automatiziranu sumnju i reakciju. U demokratijama je moguć javni otpor, koliko god nesavršen bio. U autokratskim režimima otpor je daleko teži; bez toga su ti problemi nevidljivi onima unutar sistema, gdje službenici i algoritmi dijele iste predrasude. Umjesto dobre politike, to će dovesti do porasta patologija, društvene disfunkcionalnosti, ogorčenosti i, na kraju, nemira i nestabilnosti.
Naoružani AI
Međunarodna politika umjetne inteligencije neće stvoriti jednostavnu utrku za dominacijom. Grubo gledište da je ova tehnologija ekonomsko i vojno oružje i da su podaci ono što je krije sriva puno stvarne akcije. Zapravo, najveće političke posljedice umjetne inteligencije su na povratne mehanizme na koje se oslanjaju i demokratske i autoritarne zemlje. Neki dokazi pokazuju da AI remeti povratne informacije u demokratijama, iako ne igra ni približno tako veliku ulogu kao što mnogi sugeriraju. Nasuprot tome, što se autoritarnije vlade više oslanjaju na mašinsko učenje, to će se više gurati u imaginarni svijet utemeljen na njihovim vlastitim tehnologijama uvećanim pristranostima. Klasična knjiga politologa Jamesa Scotta iz 1998., Seeing Like a State, objasnila je kako su države dvadesetog stoljeća bile slijepe na posljedice vlastitih postupaka djelomično zato što su mogle vidjeti svijet samo kroz birokratske kategorije i podatke. Kao što su sociolog Marion Fourcade i drugi tvrdili, mašinsko učenje može predstavljati iste probleme, ali u još većoj mjeri.
Ovaj problem stvara vrlo različite međunarodne izazove za demokratije kao što su Sjedinjene Države. Rusija je, na primjer, uložila u kampanje dezinformiranja osmišljene kako bi posijale zbrku i nered među ruskom javnošću dok je primjenjivala iste alate u demokratskim zemljama. Iako su zagovornici slobode govora dugo tvrdili da je odgovor na loš govor više govora, Putin je odlučio da je najbolji odgovor na više govora više lošeg govora. Rusija je potom iskoristila otvorene sisteme povratnih informacija u demokratijama kako bi ih zagadila dezinformacijama.
Jedan brzorastući problem jest da bi autokratije poput Rusije mogle upotrijebiti velike jezične modele, novi oblik umjetne inteligencije koji može proizvesti tekst ili slike kao odgovor na verbalni upit, za generiranje dezinformacija u velikom obimu. Kao što su informatičarka Timnit Gebru i njezini kolege upozorili, programi poput Open AI GPT-3 sistema mogu proizvesti očito tečan tekst koji je teško razlikovati od običnog ljudskog pisma. Bloom, novi veliki jezični model s otvorenim pristupom, upravo je objavljen svima za korištenje. Njegova licenca zahtijeva od ljudi da izbjegavaju zlostavljanje, ali će to biti vrlo teško kontrolirati.
Ovakav razvoj događaja proizvest će ozbiljne probleme povratnim informacijama u demokratijama. Trenutačni online sistemi komentiranja politike gotovo su sigurno osuđeni na propast, budući da zahtijevaju malo dokaza da bi se utvrdilo je li komentator stvarno ljudsko biće. Izvođači velikih telekomunikacijskih kompanija već su obasuli američku Federalnu komisiju za komunikacije lažnim komentarima povezanim s ukradenim adresama e-pošte u sklopu svoje kampanje protiv zakona o neutralnosti mreže. Ipak, bilo je lako prepoznati podmetanje kada su objavljeni deseci hiljada gotovo identičnih komentara. Sada, ili u vrlo bliskoj budućnosti, bit će trivijalno jednostavno potaknuti veliki jezični model da napiše, recimo, 20.000 različitih komentara u stilu swing glasača koji osuđuju neutralnost mreže.
Dezinformacije potaknute umjetnom inteligencijom također mogu zatrovati izvor autokratija. Kako autoritarne vlade vlastitu javnu raspravu zasijavaju dezinformacijama, bit će lakše razbiti opoziciju, ali će biti teže reći u što javnost zapravo vjeruje, što će uvelike zakomplicirati proces donošenja politika. Autoritarnim će vođama biti sve teže izbjeći da se omame, što će ih navesti da vjeruju da građani toleriraju ili čak vole duboko nepopularne politike.
Podijeljene prijetnje
Kako bi bilo dijeliti svijet s autoritarnim državama kao što je Kina ako one postanu sve zarobljenije u vlastitim nezdravim povratnim informacijama? Šta se događa kada ti procesi prestanu pružati kibernetičko vodstvo i umjesto toga reflektiraju vlastite strahove i uvjerenja vladara? Jedan egocentričan odgovor demokratskih konkurenata bio bi da prepuste autokrate samima sebi, gledajući na sve što slabi autoritarne vlade kao na neto dobitak.
Međutim, takva bi reakcija mogla rezultirati humanitarnom katastrofom. Mnoge trenutne pristranosti kineske države, kao što je njena politika prema Ujgurima, aktivno su zloćudne i mogle bi postati daleko gore. Prethodne posljedice pekinške sljepoće uključuju veliku glad, koja je ubila oko 30 miliona ljudi između 1959. i 1961. i bila je ubrzana ideološki vođenom politikom i skrivena nespremnošću pokrajinskih dužnosnika da objave tačne statistike. Čak bi i okorjeli cinici trebali prepoznati opasnosti vanjskopolitičkih katastrofa izazvanih umjetnom inteligencijom u Kini i drugdje. Pojačavanjem nacionalističkih predrasuda, na primjer, umjetna inteligencija bi lako mogla ojačati frakcije koje žele sudjelovati u osvajanju teritorija.
Možda bi, čak i ciničnije, kreatori politike na Zapadu mogli doći u iskušenje da iskoriste zatvorene petlje autoritarnih informacijskih sistema. Do sada su se Sjedinjene Države usredotočile na promicanje slobode interneta u autokratskim društvima. Umjesto toga, SAD bi mogao pokušati pogoršati problem autoritarnog informiranja jačanjem petlji pristranosti kojima su ti režimi skloni. To bi mogao učiniti korumpiranjem administrativnih podataka ili sijanjem autoritarnih društvenih medija dezinformacijama. Nažalost, ne postoji virtualni zid koji bi razdvajao demokratske i autokratske sisteme. Ne samo da bi loši podaci i suluda uvjerenja mogli procuriti u demokratska društva iz autoritarnih, već bi strašne autoritarne odluke mogle imati nepredvidive posljedice i za demokratske zemlje. Dok vlade razmišljaju o umjetnoj inteligenciji, moraju shvatiti da živimo u međuovisnom svijetu, gdje će se problemi autoritarnih vlada vjerovatno preliti u demokratije.
Inteligentniji pristup, dakle, mogao bi ublažiti slabosti umjetne inteligencije kroz zajedničke aranžmane za međunarodno upravljanje. Trenutno se različiti dijelovi kineske države ne slažu oko odgovarajućeg odgovora na regulaciju AI. Kineska uprava za kiberprostor, njena Akademija za informacijsku i komunikacijsku tehnologiju i njezino Ministarstvo nauka i tehnologije, na primjer, predložili su sva načela za regulaciju umjetne inteligencije. Neki favoriziraju model odozgo prema dolje koji bi mogao ograničiti privatni sektor i omogućiti vladi odriješene ruke. Drugi, barem implicitno, prepoznaju opasnosti umjetne inteligencije i za vladu. Izrada širokih međunarodnih regulatornih načela mogla bi pomoći u širenju znanja o političkim rizicima umjetne inteligencije.
Ovaj kooperativni pristup može izgledati čudno u kontekstu rastućeg američko-kineskog rivalstva. Ali pažljivo modulirana politika mogla bi poslužiti Washingtonu i njegovim saveznicima. Jedan bi opasan put bio da Sjedinjene Države budu uvučene u utrku za dominaciju umjetne inteligencije, što bi još više proširilo konkurentske odnose. Drugi bi bio pokušaj pogoršanja problema povratne sprege autoritarizma. I jedni i drugi riskiraju katastrofu i mogući rat. Daleko je sigurnije, dakle, da sve vlade prepoznaju zajedničke rizike umjetne inteligencije i rade zajedno na njihovu smanjenju.