Korištenje vještačke inteligencije u svakodnevnom životu je u porastu, pokriva i mnoge oblasti života. Nešto naizgled banalno, poput izbjegavanja zastoja u saobraćaju upotrebom pametnog navigacionog sistema ili primanje ciljanih ponuda od pouzdanog prodavca rezultat je velike analize podataka koju vještački inteligentni sistemi mogu koristiti. Iako ovi konkretni primjeri imaju očigledne prednosti, etička i pravna implikacija nauke koja se bavi podacima i stoji iza njih često prolazi nezapaženo. Vještačka inteligencija, a naročito njena podoblast mašinskog i dubokog učenja, može se pojavljivati samo kao neutralna. Ispod površine može postati izuzetno lična. Prednosti donošenja odluka prema matematičkim proračunima mogu biti ogromne u mnogim sektorima života, ali pretjerano oslanjanje na vještačku inteligenciju koja po svojoj prirodi uključuje i određivanje obrazaca izvan ovih kalkulacija, može se okrenuti protiv korisnika, počiniti nepravde i ograničiti ljudska prava.
Kako ja to vidim, vještačka inteligencija zapravo dotiče mnoge aspekte mog mandata, jer njezina upotreba može negativno uticati na širok spektar naših ljudskih prava. Problem je zaokružen činjenicom da se odluke donose na bazi ovih sistema, dok nema transparentnosti, odgovornosti ili zaštite u načinu na koji su projektovani, kako funkcionišu i kako se mogu vremenom mijenjati.
Podsticanje prava na privatnost i prava na jednakost
Tenzija između prednosti tehnologije vještačke inteligencije i rizika za ljudska prava postaje najočiglednija u oblasti privatnosti. Privatnost je osnovno ljudsko pravo, koje je neophodno za dostojanstven i bezbjedan život. Ali u digitalnom okruženju, uključujući i ono kada koristimo aplikacije i platforme društvenih medija, prikuplja se velika količina ličnih podataka - sa ili bez našeg znanja - koja može biti iskorištena za naše profilisanje i predviđanja naših ponašanja. Mi pružamo podatke o našem zdravlju, političkim idejama i porodičnom životu, a ne znamo ko će koristiti ove podatke, za koje svrhe i kako.
Mašine funkcionišu na osnovu onoga što im ljudi govore. Ako se sistem hrani ljudskim predrasudama (svjesnim ili nesvjesnim), rezultat će biti neizbježno pristrasan. Stoga je nedostatak različitosti i inkluzije u dizajniranju sistema vještačke inteligencije ključna briga: umjesto da naše odluke postaju objektivnije, one bi mogle da pojačaju diskriminaciju i predrasude tako što im daju izgled objektivnosti. Postoji sve veći broj dokaza da žene, etničke manjine, osobe sa invaliditetom i LGBTI osobe posebno pate od diskriminacije pristrasnim algoritmima.
Studije su pokazale, naprimjer, da je Google više prikazivao reklame za visoko plaćene poslove muškarcima koji traže posao, nego ženama. Prošlog maja, studija Agencije za temeljna prava EU također je pokazala kako vještačka inteligencija može pojačati diskriminaciju. Kada donošenje odluka zasnovano na podacima odražava društvene predrasude, ono reprodukuje - čak i potkrepljuje - predrasude tog društva. Na ovaj problem često su ukazivali akademski kadrovi i nevladine organizacije, koji su nedavno usvojili Deklaraciju iz Toronta, pozivajući se na mjere zaštite kojima su sistemi mašinskog učenja bili spriječeni da doprinesu diskriminatorskim praksama.
Odluke donijete bez propitivanja rezultata lošeg algoritma mogu imati ozbiljne posljedice za ljudska prava. Naprimjer, softver koji se koristi za bilježenje odluka o beneficijama zdravstvene zaštite i invalidnosti pogrešno je isključio ljude koji su imali pravo, uz teške posljedice po pojedince.
U pravnom sistemu, vještačka inteligencija može biti i pokretač poboljšanja i zla sila. Od održavanja reda do predviđanja zločina i vraćanja istom, sistemi krivične pravde širom svijeta sve više gledaju u mogućnosti koje vještačka inteligencija pruža u sprečavanju kriminala. Istovremeno, mnogi stručnjaci izražavaju zabrinutost za objektivnost takvih modela. Da bi se riješilo ovo pitanje, Evropska komisija za efikasnost pravosuđa (CEPEJ) Savjeta Evrope sastavila je tim multidisciplinarnih stručnjaka koji će “voditi izradu smjernica za etičku upotrebu algoritama unutar pravosudnih sistema, uključujući prediktivnu pravdu “.
Gušenje slobode izražavanja i slobode okupljanja
Još jedno pravo koje je na kocki je sloboda izražavanja. Nedavna publikacija Vijeća Evrope o algoritmu i ljudskim pravima pokazala je na primjer da su Facebook i YouTube usvojili filtrirajući mehanizam za otkrivanje nasilnog ekstremističkog sadržaja. Međutim, nema dostupnih informacija o tome koji su procesu ili kriteriji usvojeni da bi se utvrdilo koji video zapisi pokazuju “jasno ilegalni sadržaj”. Iako se ne može ništa osim pozdraviti inicijativa za pokušaj zaustavljanja širenja takvog materijala, nedostatak transparentnosti oko uređivanja sadržaja je zabrinjavajući jer se može koristiti za ograničavanje legitimne slobode govora i ugrožavanje sposobnosti ljudi da se izraze. Slična zabrinutost izražena je i u pogledu automatskog filtriranja sadržaja kojeg generiše korisnik u trenutku prenosa, zbog navodnog kršenja prava intelektualne svojine, koje je predloženom Direktivom o autorskim pravima EU stavljeno u prvi plan. U određenim okolnostima, korištenje automatizovanih tehnologija za širenje sadržaja takođe može uticati na pravo na slobodu izražavanja i privatnosti, kada se koriste botovi, trol vojske, ciljana neželjena pošta ili oglasi pored algoritama koji definišu prikaz sadržaja.
Tenzija između tehnologije i ljudskih prava takođe se manifestuje u oblasti tehnologije prepoznavanja lica. Iako ovo može biti moćan alat za policijske službenike u pronalaženju sumnjivih terorista, on se može pretvoriti u oružje za kontrolu ljudi. Vlastima je danas suviše lako da vas trajno nadgledaju i ograničavaju prava na privatnost privatnost, slobodu okupljanja, slobodu kretanja i slobodu štampe.
Šta vlasti i privatni sektor mogu učiniti?
Vještačka inteligencija ima potencijal da pomogne ljudima da maksimalno iskoriste svoje vrijeme, slobodu i sreću. Istovremeno, može nas dovesti do distopijskog društva. Stoga je pronalaženje balansa između tehnološkog razvoja i zaštite ljudskih prava hitna stvar od koje zavisi budućnost društva u kojem želimo živjeti.
Da bismo to uredili potrebna nam je jača saradnja između državnih aktera - vlada, parlamenata, pravosuđa, agencija za provođenje zakona - privatnih kompanija, akademija, nevladinih organizacija, međunarodnih organizacija, kao i javnosti uopšte. Zadatak je obeshrabrujući, ali ne i nemoguć.
Veliki broj standarda već postoji i trebao bi poslužiti kao polazna tačka. Naprimjer, sudska praksa Evropskog suda za ljudska prava postavlja jasne granice za poštivanje privatnog života, slobode i sigurnosti. Takođe naglašava obaveze država da obezbijede djelotvoran pravni lijek za uplitanje u privatni život i zaštitu pojedinaca od nezakonitog nadzora. Pored toga, modernizovana Konvencija Savjeta Evrope za zaštitu pojedinaca koja se odnosi na automatsku obradu ličnih podataka, usvojena u ovoj godini, bavi se izazovima privatnosti koji proizilaze iz upotrebe novih informacionih i komunikacionih tehnologija.
Države takođe trebaju osigurati da privatni sektor, koji snosi odgovornost za dizajniranje programiranje i implementaciju sistema vještačke inteligencije, podržava standarde ljudskih prava. Preporuke Vijeća Evrope o poslovnima i ljudskim pravima, kao i o ulogama i odgovornostima internetskih posrednika, vodećim principima UN o poslovnim i ljudskim pravima i izveštaj Specijalnog izvestioca UN o regulisanju sadržaja o promociji i zaštiti prava na slobodu mišljenja i izražavanja bi trebali da utiču na razvoj tehnologija vještačke inteligencije koja može poboljšati naše živote. Potrebna je veća transparentnost u procesima donošenja odluka pomoću algoritama, kako bi razumjeli logike koje stoje iza njih i osigurali vjerodostojnost, te kako bi bili u stanju da preispitaju ove odluke na efikasan način.
Treće područje djelovanja trebalo bi da bude povećanje pismenosti u oblasti tehnologija vještačke inteligencije. Države bi trebale više da ulažu u inicijative za podizanje svjesti javnosti i obrazovanje kako bi razvile kompetencije svih građana, a naročito mlađih generacija, da se pozitivno angažuju u oblasti tehnologija vještačkih inteligencija i bolje razumiju njihov uticaj na naše živote. Na kraju, nacionalne strukture za ljudska prava trebaju biti opremljene za suočavanje sa novim vrstama diskriminacije koje proističu iz upotrebe vještačke inteligencije.
Ohrabrujuće je vidjeti da je privatni sektor spreman da sarađuje sa Vijećem Evrope o ovim pitanjima. Tokom mandata Komesara za ljudska prava namjeravam se fokusirati na vještačku inteligenciju, u prvi plan izdvojiti ključna pitanja i pomoći državama članicama da ih riješe poštujući ljudska prava. Nedavno, tokom moje posjete Estoniji, sa premijerom sam vodila obećavajuću raspravu o pitanjima vezanim za vještačku inteligenciju i ljudska prava.
Vještačka inteligencija u velikoj mjeri može poboljšati naše sposobnosti da živimo život koji želimo. Ali, takođe, može ih uništiti. Stoga zahtijeva striktne propise kako bi se izbjegao preobražaj u modernog Frankenštajnovog čudovišta.
Autorka je komesarka Savjeta Evrope za ljudska prava
Bonus video: