O MOĆI I PRAVU
Hoće li lažne vijesti biti tu zauvijek?
Pretrpani ogromnim brojem informacija dostupnih na mreži, ljudi teško mogu da shvate kuda treba da usmjere svoju pažnju
Termin “lažne vijesti” postao je epitet kojim predsjednik SAD Donald Tramp opisuje svaki neprijatan članak. Ali to je takođe i analitički termin koji opisuje namjernu dezinformaciju predstavljenu u vidu običnog novinskog izvještaja.
Problem nije sasvim nov. Harper’s Magazine je 1925. godine objavio članak o opsanosi od “lažnih vijesti”. Međutim, danas dvije trećine odraslih Amerikanaca dobija informacije sa društvenih mreža koje se oslanjaju na biznis-model koji je pod uticajem spoljnih manipulacija i u kojem algoritmi mogu lako da zaobilaze pravila kako bi se došlo ili do profita ili do nekog mračnog cilja.
Nezavisno od toga da li su amaterske, kriminalne ili vladine, mnoge organizacije - kako domaće, tako i strane - imaju veoma uspješan obrnuti inženjering za to da tehničke platforme analiziraju informaciju. Treba odati priznanje Rusiji - njena je vlada među prvima shvatila kako da društvene mreže pretvori u oružje i iskoristi američke kompanije protiv nje same.
Pretrpani ogromnim brojem informacija dostupnih na mreži, ljudi teško mogu da shvate kuda treba da usmjere svoju pažnju. Pažnja, a ne informacija, to je ona sitnica koju treba zadobiti. Veliki podaci i vještačka inteligencija omogućavaju ciljanu informaciju na mikro nivou tako da se ona informacija koju će ljudi dobiti ograničava “filter-balonom” sličnih korisnika.
“Besplatne” usluge, koje su u ponudi na socijalnim mrežama, zasnovane su na modelu dobiti u kojima su informacija i pažnja korisnika faktički proizvodi koji se prodaju oglašivačima. Algoritmi su napravljeni tako da saznaju šta zadrža pažnju korisnika da bi mu bilo moguće ponuditi više reklama i tako imati veću dobit.
Praksa pokazuje da emocije kao što je nezadovoljstvo stimulišu učešće, a vijesti koje sadrže lažne skandale privlače više korsnika nego vjerodostojne informacije. Prema podacima jednog istraživanja, takva laž na Tviteru iamla je 70% šansi više da bude pregledana nego informacija koja je istinita.
Isto tako, studija o demonstracijama u Njemačkoj ranije ove godine otkrila je da je YouTubeov algoritam sistematično usmjeravao korisnike prema ekstremističkom sadržaju, jer je tamo bilo najviše klikova i sljedstveno tome - dobiti. Provjera činjenica od strane običnih sredstava javnog informisanja često ne ide u korak s tim, a nekada može biri čak biti i kontreproduktivna jer usmjerava više pažnje na laž.
Po svojoj prirodi model dobiti društvenih mreža može postati oružje kako državnih tako i nedržavnih aktera. U posljednje vrijeme Facebook je meta ozbiljne kritike povodom slučaja, bez presedana, vezanog za korišćenje privatnih informacija svojih korisnika.
Generalni direktor Mark Zakerberg priznao je da 2016. godine da FB “nije bio spreman za koordinisane informacione operacije s kojima se redovno susrećemo”. Ipak, kompanija je “mnogo naučila otada i uvela je sofisticirane sisteme koje udružuju tehnologije i ljude u cilju sprečavanja miješanja u izbore na našem servisu”.
Ti napori uključuju automatske programe za pronalaženje i uklanjane lažnih naloga; provjeru državljanstva onih koji postavljaju političku reklamu; zapošljavanje 10.000 dodatnih ljudi za rad u sferi bezbjednosti i poboljšanje koordinacije sa sudskim organima i drugim kompanijama radi uklanjanja sumnjivog djelovanja. Ali, problem nije riješen.
Trka o naoružanju će se nastaviti između društvenih medija i državnih i nedržavnih aktera koji ulažu u načine korišćenja svojih sistema. Tehnološka rješenja, kao što je vještačka ineligencija, nijesu čarobni štapić. Pošto su često senzacionalne i uznemirujuće, lažne vijesti se šire sve dublje i brže od istinitih informacija.
Lažnu informaciju na Tviteru može otvoriti neuporedivo više ljudi i to mnogo brže nego vjerodostojnu informaciju, a njeno ponavljanje, čak i kontekstu provjere činjenica, može uvećati vjerovatnoću da će je čitalac primiti kao istinitu.
Tokom pripreme predsjedničkih izbora u SAD 2016. godine, Agencija za internet istraživanja iz Sankt Peterburga, Rusija, potrošila je više od godine na otvaranje desetina naloga na društvenim mrežama koji su bili prerušeni u lokalne američke novinske agencije. Nekada su izvještaji favorizovali kandidata, ali su često bili takvi da samo stvore utisak haosa i neraslopoženja prema demokratiji i tako smanje izlaznost birača.
Kada je 1996. kongres donio Zakon o pristojnoj komunikaciji, tada mlade društvene medijske kuće posmatrane su kao neutralni provajderi telekomunikacionih usluga koje omogućavaju interakciju među klijentima. Pod političkim pritiskom, velike kompanije počele su pažljivije da štite svoje mreže od očiglednih falsifikata, uključujući i one distribuirane preko botneta.
Ali uvođenje ograničenja u slobodu govora, zaštićenu Prvim amandmanom Ustava SAD, dovodi do složenih praktičnih problema. I mada se Prvi amandman ne odnosi na mašine i aktere koji nisu američki (a ni privatne kompanije ne potpadaju pod njema ni na koji način), to se ne odnosi na čudovišne nacionalne grupe i pojedince koji mogu poslužiti kao posrednici za uticaj stranih subjekata.
U svakom slučaju, šteta koju su nanijeli spoljni igrači može biti manja od one mi činimo sami sebi. Problem lažnih vijesti i današnje deformacije realnih izvora teško je riješiti zato što oni pretpostavljaju kompromise između naši prihvaćenih vrijednosti. Društvene medijske kompanije koje strahuju da će biti prozvane zbog cenzure hoće da izbjegnu regulaciju od strane zakonodavaca koji ih kritikuju kako zbog činjenja tako i zbog nečinjenja.
Iskustvo evropskih izbora sugeriše da novinarska istraživanja u upozoravanje javnosti unaprijed, mogu pomoći da se birači okrenu protiv kampanje dezinformisanja. Ali bitka sa lažnim vijestima će, najvjerovatnije, ostati igra mačke i miša između onih kojih ih postavljaju i kompanija čije platforme koriste. To će biti dio pozadinske buke na izborima u cijelom svijetu. Neprestana budnost biće cijena zaštite naših demokratija.
Autor je profesor na Univerzitetu Harvard Copyright: Project Syndicate, 2018.
( Joseph S. Nye )