Lažne slike i dezinformacije: Izbori u svijetu vještačke inteligencije
Od robotskih poziva do realističnih falsifikovanih fotografija, moderna tehnologija se razvija vrtoglavom brzinom - dok milijarde ljudi izlaze na birališta
Iz svog stana u Bostonu Kalam Hud ima moć da podrije bilo koje izbore sa samo pritiskom samo nekoliko tipki na tastaturi.
Hud, britanski istraživač, aktivirao je neke od najnovijih alata vještačke inteligencije koje su napravili OpenAI i Midjourney, još jedna AI startap kompanija. U roku od par sekundi pošto je ukucao nekoliko upita - “napravite realističnu fotografiju glasačkih listića u kontejneru za smeće”; “fotografija dugačkih redova glasača koji čekaju ispred biračkog mjesta na kiši”; “fotografija Džoa Bajdena bolesnog u bolnici” - AI modeli su izbacili gomile realističnih slika.
Politički operativci i strane vlade koje koriste ove alate - koji mogu generisati realističke slike koje je teško razlikovati od pravih fotografija - nadaju se da će posijati sumnju i uticati na preko 50 izbora planiranih širom svijeta u 2024. godini. Hud je glasanje u Sjedinjenim Državama u novembru iskoristio kao samo jedan primjer. Međutim, takve taktike, prema njegovim riječima, mogu se primijeniti na bilo koje izbore - od Evropske unije do Indije i Meksika.
“Možete napraviti koliko god želite takvih slika, veoma, veoma brzo”, kazao je Hud u razgovoru preko Zooma za briselski portal “Politiko”.
Hud je na čelu istraživanja u Centru za suprotstavljanje digitalnoj mržnji, neprofitnoj organizaciji koja je uspješno kreirala desetine primjera štetnog AI-generisanog dezinformacionog sadržaja o izborima kako bi upozorila na potencijal te tehnologije da podriva demokratiju.
“Kakva je korist od tehnologije koja može da proizvede tako realistične lažne slike, i kako ta korist može nadmašiti potencijalnu štetu”, upitao je Hud nakon što je sa svega nekoliko poteza na tastaturi napravio još slika navodne izborne krađe. “To je zaista nejasno”.
Niko ne negira potencijal za nanošenje štete.
Štetni takozvani “deepfake” - termin za obmanjujući, AI-generisani sadržaj - audio snimci britanskog lidera Laburističke partije Kira Starmera i njegovog slovačkog kolege, lidera opozicije Mihala Šimečke, proširili su se društvenim medijima poput šumskog požara prije nego što su opovrgnuti provjerom činjenica. Lažni telefonski pozivi, navodno od predsjednika SAD-a Džoa Bajdena, takođe su kreirani korišćenjem AI alata, preplavili su mreže uoči nedavnih demokratskih stranačkih izbora u Nju Hempširu kako bi uticali na ljude da ne glasaju. I oni su brzo razotkriveni kao lažni.
Kakva je korist od tehnologije koja može da proizvede tako realistične lažne slike, i kako ta korist može nadmašiti potencijalnu štetu
Laka dostupnost AI alata poput ChatGPT-a i njegovih konkurenata rizikuje da stvori talas politički motivisanih laži koji preplavljuju društvene medije na načine koji su djelovali nezamislivo do prije svega nekoliko godina. U eri učvršćene stranačke politike i rastućeg skepticizma prema onome što se objavljuje na internetu, AI ima potencijal da učini ovogodišnji ciklus izbora znatno težim za predviđanje.
Međutim, ono što još uvijek nije jasno, na osnovu razgovora sa više od 30 političara, donosilaca odluka, tehnoloških izvršnih direktora i spoljnih stručnjaka iz mnogih zemalja koje održavaju izbore u 2024. godini, jeste kakav će biti stvarni uticaj AI-a kada više od 2 milijarde ljudi krene na birališta od Nju Delhija do Berlina i Vašingtona.
Uprkos očiglednom usavršavanju najnovijih AI alata, skoro sve deepfake uratke je i dalje moguće lako - i brzo - opovrgnuti, uključujući i one koje proizvode Rusija i Kina, koje već koriste tu tehnologiju u globalnim kampanjama za širenje uticaja.
Političke stavove mnogih ljudi je teško promijeniti, a stručnjaci smatraju da AI-generisani sadržaj na većinu birača neće uticati da promijene naklonost nekoj partiji - bez obzira na to koliko ubjedljivo lažne fotografije, video ili audio snimci izgledaju.
Na mnogim izborima održanim ove godine, uključujući i one u državama poput Pakistana i Indonezije, gdje su AI alati korišteni u određenoj mjeri, rijetki su - ako ih uopšte ima - dokazi da je ova tehnologija nepravedno izmijenila ishod glasanja u korist nekog političara.
Sa toliko postova na društvenim mrežama koji se svakodnevno objavljuju širom svijeta, sposobnost AI generisanih laži - čak i realističnih poput onih koje je kreirao Hud - da se probiju je težak izazov.
Poslanici, direktori tehnoloških kompanija i grupe koje prate izbore pozivaju na oprez kada je u pitanju tehnologija koja se razvija brže nego što se može kontrolisati. Međutim, za mnoge, uticaj AI generisanih dezinformacija ostaje više teorija nego činjenica.
“Trendovi se mogu promijeniti, i to dramatično”, kazao je Nik Kleg, predsjednik odsjeka za globalna dešavanja u kompaniji Meta, tokom diskusije o tome kako su AI generisane lažne informacije do sada uticale na izborne procese u 2024.
Međutim Klegove riječi nijesu utjeha za Karu Hanter.
Svega nekoliko nedjelja prije parlamentarnih izbora u Sjevernoj Irskoj 2022. godine, ova tadašnja 24-godišnjakinja je na platformi WhatsApp dobila poruku od nepoznate osobe. Taj muškarac ju je odmah pitao da li je ona žena na eksplicitnom snimku - deepfake snimak u trajanju od 40 sekundi u kojem je Hanterova prikazana u eksplicitnom seksualnom činu.
U roku od svega nekoliko dana, AI generisani snimak se proširio internetom, a ova političarka iz Sjeverne Irske je zasuta seksualnim i nasilnim porukama na društvenim mrežama od muškaraca širom svijeta.
“To je bila kampanja da me podriju u političkom smislu”, kazala je Hanterova, koja je osvojila mjesto u Skupštini Sjeverne Irske tijesnom većinom od svega nekoliko glasova, uprkos deepfake pornografiji. “To je ukaljalo moj ugled i ja to ne mogu kontrolisati. Do kraja života ću ispaštati zbog toga”.
Laka dostupnost AI alata, poput ChatGPT-a i njegovih konkurenata, rizikuje da stvori talas politički motivisanih laži koje preplavljuju društvene medije na načine koji su djelovali nezamislivo do prije svega nekoliko godina
Hanterova nije jedina koja je bila meta AI generisane političke kampanje.
Najmanje troje zapadnih lidera su vidjeli realistične kopije sebe u prezentacijama AI kompanija u okviru diskusije o tome koliko su takvi digitalni falsifikati postali realistične, kazalo je za “Politiko” petoro zvaničnika upućenih u diskusije, a koji su željeli da ostanu anonimni.
U Moldaviji, predsjednica Maja Sandu je u više navrata bila meta deepfake materijala kako bi bili ismijani i ona i njena prozapadna vlada. Moldavske bezbjednosne vlasti su za te napade okrivile Kremlj, tvrdeći da je to nova taktika u višegodišnjem uplitanju u unutrašnje stvari u njihovoj zemlji.
Grupe povezane sa Rusijom takođe su kreirale još jedan lažni snimak - ovoga puta, AI-generisani Tom Kruz kritikovao je predstojeće Olimpijske igre u Parizu u lažnom Netfliksovom dokumentarcu. Moskva je targetirala predstojeći globalni sportski događaj sofisticiranim kampanjama uticaja nakon što je Međunarodni olimpijski komitet zabranio učešće ruskim sportistima. Sada će biti primljeni kao neutralni sportisti.
Nacionalni političari takođe koriste napredak AI-a za političku korist na unutrašnjem planu. U Poljskoj, politička partija aktuelnog premijera Donalda Tuska objavila je deepfake audio snimak njegovog protivnika na društvenim mrežama tokom nedavne izborne kampanje. U međuvremenu, bivši kandidat za republikansku predsjedničku nominaciju i aktuelni guverner Floride Ron DeSantis koristio je sličnu AI generisanu sliku bivšeg predsjednika Donalda Trampa kako bi ga napao. Taj napad je bio bezuspješan.
Kao odgovor, više od 20 vodećih tehnoloških kompanija širom svijeta - uključujući TikTok, Meta i OpenAI - obećale su tokom posebne ceremonije na nedavnoj Minhenskoj konferenciji o bezbjednosti da će se boriti protiv nečasnih upotreba AI tehnologije tokom ovogodišnjeg globalnog ciklusa izbora. Evropska komisija pokrenula je preliminarnu istragu o najnaprednijim AI alatima u okviru novih pravila društvenih medija u bloku od 27 zemalja. Američki Kongres je takođe održao saslušanja o potencijalnoj šteti AI-ja, uključujući i one vezane za izbore.
Dobrovoljne obaveze kompanija uključuju i napore da zaustave loše aktere, uključujući strane vlade i domaće političke kampanje, da kreiraju štetne deepfake sadržaje. Takođe će dijeliti tehnike koje se primjenjuju u industriji - poput automatskog označavanja AI-generisanih slika i snimaka - kako bi javnost odmah znala kada se suoči sa takvim manipulisanim sadržajem. Korporativni odgovor dolazi u trenutku kada skoro sve vlade imaju malo ili nimalo tehničke ekspertize da se izbore sa stalno promjenljivom prijetnjom AI tehnologije kada su u pitanju izbori.
“Ljudi stalno smišljaju nove načine da pokušaju da prevare sistem”, kazala je Nataša Krampton koja predvodi napore Majkrosofta kako bi AI sistemi postali odgovorniji. Komercijalne veze ovog tehnološkog giganta sa OpenAI sa sjedištem u SAD i Mistralom, francuskim konkurentom, uticale su na to da postane ključni igrač u borbi protiv AI generisanih dezinformacija širom svijeta.
Ako je nekome stalo da poveže ovu lavinu AI-pokrenutih laži sa štetnim ishodima na biralištima, to je Džoš Loson.
Kao izvršni direktor u kompaniji Meta, matičnoj kompaniji Fejsbuka, Instagrama i WhatsAppa, Loson je nekada vodio odgovor firme na globalne izborne politike. Platforme ovog tehnološkog diva i dalje imaju ključnu ulogu u tome kako legitimne informacije i dezinformacije dopiru do glasača. Sada, u Institutu Aspen, Loson nadgleda Inicijativu AI izbori, projekat koji ima za cilj da suzbije negativan uticaj nove tehnologije na izbore u 2024. godini i kasnije.
Ipak, uprkos desetinama sastanaka sa izbornim zvaničnicima, predstavnicima građanskog društva i tehnoloških kompanija - uključujući i nedavni događaj u Njujorku na kojem su učestvovale i bivša predsjednička kandidatkinja Hilari Klinton i dobitnica Nobelove nagrade za mir Marija Resa - Loson tek treba da pronađe konkretne dokaze da AI generisane dezinformacije direktno mijenjaju navike birača, naročito tokom opštih izbora.
On priznaje da dokazi vjerovatno postoje, ali niko do sada nije predočio dokaze da AI prevare mijenjaju ishod izbora.
“To je zaista frustrirajuće”, kazao je on.
Ta frustraciju i rezigniranost u više navrata su izraženi tokom intervjua koje je “Politiko” uradio sa zvaničnicima nacionalne bezbjednosti, direktorima tehnoloških kompanije i nadzornim tijelima.
Većina njih, koji su o svom povjerljivom radu govorili pod uslovom da ostanu anonimnu, priznala je da AI nudi brži i jeftiniji način stvaranja dezinformacija, tokom izbora i generalno. Međutim, ta tehnologija - do početka 2024. godine - bila je više dodatni instrument, nego nova prijetnja sama po sebi, u pomaganju širenju lažnih infromacija vezanih za izbore.
“Stvarno provjeravamo, zaista”, rekao je jedan visoki zvaničnik vodeće AI kompanije, koji je želio da ostane anoniman. “Ali jednostavno nismo vidjeli masovni uticaj prikrivenog AI sadržaja”.
To je djelimično zato što takav AI generisani sadržaj često nije ubjedljiv.
Ljudi su oprezni prema onome što vide na internetu, a većina AI-generisanog sadržaja ne privlači, ili privlači vrlo malo pažnje u moru svakodnevnih postova na društvenim mrežama
Nedavni ruski pokušaj plasiranja deepfake snimka na društvenim mrežama, na kojem se navodno ističu nesuglasice između ukrajinskog predsjednika Volodimira Zelenskog i jednog od njegovih najviših generala, imao je osnovne jezičke greške, dok se audio loše sinhronizovao sa videom, pokazala je analiza koju je Majkrosoft podijelio sa portalom “Politiko”. Nedavne sumnjive slike Trampa navodno okruženog pristalicama crncima su demantovane u roku od nekoliko sati na društvenim mrežama - prije nego što su mogle postati viralne.
“Takva vrsta dezinformacije nije uspješna”, kazao je Feliks Sajmon, istraživač na Univerzitetu Oksford koji prati neuspjeh štetnog AI-generisanog sadržaja da se probije kod javnosti. Ljudi su oprezni prema onome što vide na internetu, a većina AI-generisanog sadržaja ne privlači, ili privlači vrlo malo pažnje u moru svakodnevnih postova na društvenim mrežama, dodao je.
Za Amber Sinhu, ekspertkinju za vještačku inteligenciju u Mozilla fondaciji sa sjedištem u Indiji, neprofitnoj organizaciji povezanoj sa tehnološkom kompanijom koja stoji iza Firefox pretraživača, legitimna fiksacija ljudi na takozvanu generativnu AI propustila je najvjerovatniji način na koji bi AI mogala da utiče na ovogodišnji globalni ciklus izbora.
U Indiji, državi od 1,4 milijarde ljudi gdje opšti izbori počinju 19. aprila, političke partije i spoljašnji konsultanti već koriste običnije AI tehnike, poput takozvanih alata za mašinsko učenje, kako bi prikupili lične podatke glasača a zatim ih zasipali političkim oglašavanjem.
Takve taktike, prema riječima Sinhe, omogućile su ovim operativcima da analiziraju ogromne količine često osjetljivih ličnih podataka poput socijalno-ekonomskog statusa ljudi kako bi preciznije odredili koje poruke bi najviše doprle do potencijalnih pristalica. Trenutno, ti napori su šire rasprostranjeni - i efikasniji - od malog, ali rastućeg broja AI-generisanih slika kreiranih da zavaraju ljude.
“Nije tako šljašteće kao generativna AI”, kazala je Sinha. “Ali upotreba ovih dosadnih AI alata i dalje igra važnu ulogu”.
Priredila: N.Bogetić
( “Politiko” )