Veliki broj kompanija u oblasti sistema vještačke inteligencije (AI) radi van matične države i regulativa mora postojati, a to će povući saglasnost da se izgradi opšti sistem na međunarodnom nivou, kojem će države pristupiti.
Tako magistarka međunarodnog prava u oblasti ljudskih prava koja se bavi istraživanjima u oblasti etike vještačke inteligencije i članica Crnogorskog udruženja za vještačku inteligenciju (MAIA) Irina Stamatović komentariše za “Vijesti” pristup regulaciji AI na internacionaloj razini.
Države članice Evropske unije (EU) odobrile su krajem maja tzv. Akt o vještačkoj inteligenciji, koji ima za cilj uslađivanje pravila o AI.
Riječ je o prvom aktu te vrste na svijetu koji može da postavi globalne standarde za zakonodavstvo o vještačkoj inteligenciji, navodi se u saopštenju Savjeta EU.
Zakon EU sveobuhvatniji je od pristupa lakog dobrovoljnog poštovanja propisa Sjedinjenih Američkih Država (SAD), dok kineski pristup ima za cilj održavanje društvene stabilnosti i državne kontrole, piše “Glas Amerike”.
“Vijesti” su sredinom juna na svom portalu objavile upitnik čiji je cilj bio da se stekne utisak javnosti o regulaciji AI, njihovom mišljenju o načinu na koji bi ova tehnologija mogla biti regulisana, kao i o ulozi velikih kompanija koje upravljaju ovim sistemima.
Iako nije riječ o reprezentativnom uzorku, kroz najveći broj odgovora provlači se ista poruka - vještačka inteligencija mora biti strogo regulisana da bi “radila” u korist građana, jer bi posljedice potencijalnih zloupotreba bile velike.
Znakovito je da je upitnik koji je pregledan skoro 40 hiljada puta, generisao manje od 50 odgovora, što ukazuje da ovo pitanje nije prioritet građana koji se interesuju za vještačku inteligenciju.
Pažljivo sa ličnim podacima
AI sistemi vrlo često koriste i prikupljaju lične podatke korisnika. Govoreći o zaštiti tih važnih informacija, Stamatović ističe da to nije samo pitanje koje se odnosi na vještačku inteligenciju, već mora da se sagleda u smislu pravnog sistema i pretpostavki na kojima ta struktura počiva.
“S razvojem sistema AI ova pitanja postaju sve važnija, a odgovori sve kompleksniji. Ipak, neophodno je uvesti stroge regulative koje zahtijevaju anonimnost podataka i ograničavaju pristup informacijama samo ovlašćenim licima, ali i pretpostaviti da postoji određeni kodeks ponašanja. Takođe, sa ove druge strane potrebna je implementacija jakih enkripcijskih metoda i redovno ažuriranje sigurnosnih protokola”, ukazuje ona.
Njeno mišljenje većinski dijele i oni koji su popunili upitnik “Vijesti”. Preovladava osjećaj bojazni, a pojedini su izrazili strah za svoju bezbjednost.
“Zakonske mjere u cilju zaštite privatnosti korisnika. Striktno zabraniti neophodnost unosa ličnih podataka, podataka o opštem identitetu, detaljnija pitanja i informacije vezane za lokaciju korisnika...”; “Prikupljanje ličnih podataka bez izričite saglasnosti je po našem zakonu zabranjeno. Prikupljanje podataka mora biti jasno naznačeno kao i svrha i obim prikupljanja podataka”; “Benefiti su nemjerljivi ukoliko bi zadovoljili sljedeće uslove - medijske kampanje koje promovišu i involviraju građane, razvoj stručne zajednice i saradnja na međunarodnim nivou, stremiti ka određenom nivou digitalne suverenosti, primjena AI u obrazovanju, turizmu, poljoprivredi, ribarstvu, zaštiti životne sredine, medicini i energetici, Hitno prioritetno otvaranje najsavremenijeg nacionalnog data centra za skupljanje, skladištenje i obradu podataka, etika i sajber bezbjednost u navedenim poljima moraju biti prioritet. Uvesti katedre za proučavanje AI etike” - neki su od odgovora.
Saradnica za politiku privatnosti podataka na Institutu za vještačku inteligenciju usmjerenu na čovjeka na američkom univerzitetu Stenford Dženifer King je u svom vajt-pejperu “Rethinking Privacy in the AI Era: Policy Provocations for a Data-Centric World” navela da AI sistemi predstavljaju mnoge od istih rizika za privatnost kao i višedecenijsko neograničeno prikupljanje podataka, ali da je razlika u razmjeri.
“Sistemi vještačke inteligencije su toliko željni podataka i netransparentni da imamo još manje kontrole nad tim koje informacije o nama se prikupljaju, za šta se koriste i kako bismo mogli da ispravimo ili uklonimo takve lične podatke. Danas je u osnovi nemoguće da ljudi koji koriste onlajn proizvode ili usluge izbjegnu sistematski digitalni nadzor u većini aspekata života - a veštačka inteligencija može da pogorša stvari”, objašnjava King.
Algoritmima protiv pristrasnosti
Upitana na koji način se može obezbijediti objektivnost i nepristrasnost AI sistema i da li je to moguće, Stamatović odgovara da je to višeslojan i izuzetno kompleksan problem.
“Osiguravanje da modeli bazirani na vještačkoj inteligenciji budu nepristrasni, zahtijeva pažljivo dizajniranje algoritama i korišćenje raznovrsnih, reprezentativnih setova podataka za treniranje, kao i da ti podaci budu ‘očišćeni’ od predrasuda/pristrasnosti. Nego, prije svega, neophodno je ispitati i utvrditi nepristrasnost ljudi koji rade na kreiranju sistema baziranih na AI, kao i donosioca odluka u kompanijama”, poručuje Stamatović.
Dodaje da je redovna procjena i korekcija eventualnih pristrasnosti u rezultatima neophodna.
“...Što ukazuje na potrebu stalne ljudske kontrole. Iako je izuzetno teško postići apsolutnu objektivnost, upitno je da li ona kao takva i postoji, kontinuirano praćenje i unapređivanje procesa može značajno smanjiti pristrasnost”, ocjenjuje sagovornica.
Na pitanje iz upitnika da li vjeruju da AI sistemi donose objektivne odluke, odnosno da li su čuli da je neki AI sistem bio pristrasan, odgovori su različiti.
“Vještačka inteligencija nema socijalnu komponentu i dok god ne postoji taj momenat pravedne odluke su diskutabilne”; “AI sistemi donosi i pravedne i nepravedne odluke. Donosi i pristrasne i nepristrasne. Zašto bi trebao neko brinuti o tome? Stvar je ljudske inteligencije da iskoristi informaciju bez obzira na pristrasnost ili nepravednost”; “Da bi AI donosila ispravne odluke moraju biti zadovoljeni sljedeći uslovi - količina i kvalitet, sistematizacija, svrha i analiza, bezbjednost podataka, robustni AI sistemi, visoka etičnost i definisanje”...
Odgovornost na kompanijama
Govoreći o transparentnosti AI sistemu u svom vajt-pejperu King navodi da je diskusija u SAD bila fokusirana na zahtjeve transparentnosti oko svrhe algoritamskih sistema kompanija, a da ni Akt o AI u EU nije pokrio tu oblast.
“Pomenuto je samo u kontekstu visokorizičnih AI sistema. Dakle, ovo je oblast u kojoj je potrebno mnogo posla ako želimo da imamo osjećaj da su naši lični podaci zaštićeni od uključivanja u sisteme vještačke inteligencije, uključujući velike sisteme kao što su tzv. ‘modeli temelja”, smatra King.
Stamatović je “Vijestima” kazala da bi kompanije koje razvijaju AI sisteme trebale javno objavljivati informacije o načinima na koje njihovi algoritmi funkcionišu i koje podatke koriste.
“Međutim još uvijek ne postoji dovoljno jak obligacioni mehanizam na globalnom nivou koji bi se mogao koristiti u te svrhe. Ono što se dešava u slučaju greške jeste pitanje odgovornosti, a ona bi trebala biti na kompanijama koje su razvile i implementirale te sisteme, jer one imaju kontrolu nad njihovim dizajnom i radom”, ističe ona.
Sagovornica naglašava da će jasni regulatorni okviri i obaveze prijavljivanja grešaka dodatno pomoći u povećanju odgovornosti i transparentnosti.
“I jedino sistem koji ne samo ima nego i sprovodi regulative može dovesti do toga. Međutim ova odgovornost ne bi trebala biti apsolutna i moraju se uzeti u obzir aspekti lične odgovornosti”, poručuje Stamatović.
Na pitanje ko je kriv ako AI sistem napravi grešku - država ili kompanija, dio onih koji su popunili upitnik smatraju da je krivica isključivo vlasnika AI, dok drugi pozivaju na lanac odgovornosti.
“Kompanija bi trebala biti odgovorna ako sistem uz pomoć AI napravi grešku s posljedicama”; “Mora se znati lanac odgovornosti...korisnici moraju znati nivo pouzdanosti AI i prihvatati sve konsenkvence ako AI pogriješi”; “Da postoji neki pravilnik, regulator opšti i usklađen sa vrstom poslovanja. Odgovoran je onaj za koga bude vršio posao taj AI” - glase neki od odgovora.
Video nadzor - mač sa dvije oštrice
Korišćenje AI sistema u video nadzoru je široko prihvaćena praksa na globalnom nivou, pa tako Kina ima najnapredniji softver za prepoznavanje lica, a Peking je “najbolje” pokriven svjetski grad u tom kontekstu.
Stamatović kaže da nije lako zaključiti da li potencijalna upotreba AI u sigurnosnom nadzoru poboljšava sigurnost građana ili narušava njihovu privatnost.
“Prevashodno moramo razumjeti da sigurnosni nadzor postoji upravo sa bezbjednosnim ciljem. Ipak, sprovođenje zavisi od pravnog i političkog sistema i njegove stabilnosti, kao i nivoa znanja i ekspertize koja je u odnosnim jedinicama uprave, poput Ministarstva unutrašnjih poslova (MUP)”, objašnjava ona.
Navodi da je obezbjeđivanje sigurnosti građana odgovornost države.
“Koliko se u to možemo pouzdati zavisi gdje smo imali privilegiju ili nesreću da se rodimo i živimo. Kina i način na koji oni sprovode ovaj sistem, iako u mnogome različita može nam poslužiti da naučimo važne lekcije”, ocjenjuje Stamatović.
BIRN je sredinom maja objavio informaciju da je MUP nabavio izraelski softver program za prepoznavanje lica koji se može koristiti u okviru sistema za nadzor javnih površina u Podgorici, Baru i Budvi.
Izraelska kompanija “AnyVision”, od koje je MUP kupio softver, opisuje program “Better Tomorrow” kao “najnapredniji svjetski taktički sistem za nadzor zasnovan na vještačkoj inteligenciji, sposoban da otkrije, prati i prepozna osobe od interesa i predmete na masovnim skupovima u realnom vremenu”.
Savjet agencije za zaštitu ličnih podataka i slobodan pristup informacijama (AZLP) je naložio MUP-u da ugasi video-nadzor na ulicama Podgorice, Bara i Budve, ali je potom, na zahtjev MUP-a, tu obavezu obustavio.
Na pitanje kako se osjećaju u vezi upotrebe AI u sistemu video nadzora, većina onih koji su popunili upitnik smatra da bi to doprinijelo sigurnosti, ukoliko bi bilo regulisano na način da ne šteti privatnosti građana.
“Apsolutno sam da se u kontekstu bezbjednosti koristi ova mogućnost”; “Ako je kontrola AI dobra poboljšava bezbjednost, u našoj državi nema ni institucije ni kadra koji bi billi odgovorne da rade sa AI”; “AI se u nadzoru, između ostalog i prepoznavanju lica na javnim mjestima, koristi već godinama unazad. Moguće je na taj nacin poboljšati sigurnost, ali je nephodno ispostovati odredbe određenih regulativa i zakona koji regulišu pitanje privatnosti, npr GDPR i sl”. To su bili neki od odgovora koje su “Vijesti” dobile.
Crna Gora čeka rješenje
Stamatović kaže da u Crnoj Gori, vezano za pitanje regulacije AI, ne postoji ništa konkretno.
“Ono što usložnjava ovaj problem jeste što čekamo da se to ‘nekako negdje riješi’ kako bismo primijenili isti lijek”, ističe sagovornica.
Ministar javne uprave Maraš Dukaj saopštio je krajem maja da Crna Gora namjerava da postane dio globalnog napretka u upravljanju vještačkom inteligencijom.
“Globalni trend predviđa da će vještačka inteligencija poboljšati mnoge aspekte naših života, uključujući zdravstvo, transport, obrazovanje i druge sektore, koji će doprinijeti razvoju efikasnije javne administracije”, rekao je ministar na Svjetskom samitu o informacionom društvu WSIS+20 Forum u Ženevi.
Dukaj je istakao da je neophodna veća saradnju između javnog i privatnog sektora, kako bi podstakli istraživanje AI i ohrabrili lidere industrije da prihvate saradnju otvorenog koda.
“Na kraju, naša je odgovornost kao političkih lidera da uz odgovarajuću upotrebu savremenih tehnologija obezbijedimo razvoj naših ekonomija i ostvarivanje svih koristi za građane, ali da ne ugrozimo ljudska prava, ravnopravnost i pravo na odlučivanje o temama koje su ključne za razvoj društava, zaštitu životne sredine i održivi razvoj”, poručio je.
EU uredila oblast
Aktom EU o AI se, prema riziku, kategorišu različiti oblici vještačke inteligencije. Tako, kako se navodi u saopštenju Savjeta EU, AI sistemi koji predstavljaju ograničen rizik podlegali bi vrlo blagim obavezama u pogledu transparentnosti, dok bi visokorizični sistemi bili odobreni pod uslovom da ispunjavaju niz zahtjeva i obaveza za pristupanje tržištu EU.
Sistemi vještačke inteligencije, kao što su, na primjer, kognitivna manipulacija ponašanjem i društveno vrijednovanje biće zabranjeni u EU zbog neprihvatljivog rizika.
Aktom se zabranjuje i upotreba AI za prediktivne policijske obrade, koje se temelje na profilisanju i sistemima koji koriste biometrijske podatke za kategorizaciju ljudi prema specifičnim kategorijama kao što su rasa, vjera ili seksualna orijentacija.
Kompanije koje prekrše Akt biće kažnjene na osnovu procenta njihovog ukupnog prometa u prethodnoj finansijskoj godini ili preko unaprijed određenog iznosa, u zavisnosti od toga koji je veći.
Proporcionalnim administrativnim kaznama podležu mala i srednja preduzeća, kao i tzv. start-up firme.
Bonus video: