AI sistemi su poput "crnih kutija" - znamo šta ulazi i šta izlazi, ali ono što se dešava unutra je često misterija, čak i za njihove kreatore. Kako regulisati nešto što u potpunosti ne razumijemo?
Tako pitanje regulacije vještačke inteligencije problematizuje doktorand iz oblasti ekonomskih efekata AI i član Crnogorskog udruženja za vještačku inteligenciju Miodrag Vujković.
“Vijesti” su sredinom juna na svom portalu objavile upitnik čiji je cilj bio da se stekne utisak javnosti o regulaciji AI, njihovom mišljenju o načinu na koji bi ova tehnologija mogla biti regulisana, kao i o ulozi velikih kompanija koje upravljaju ovim sistemima.
Iako nije riječ o reprezentativnom uzorku, kroz najveći broj odgovora provlači se ista poruka - vještačka inteligencija mora biti strogo regulisana da bi “radila” u korist građana, jer bi posljedice potencijalnih zloupotreba bile velike.
Znakovito je da je upitnik koji je pregledan skoro 40 hiljada puta, generisao manje od 50 odgovora, što ukazuje da ovo pitanje nije prioritet građana koji se interesuju za vještačku inteligenciju.
"Koji su najvažniji izazovi u regulaciji AI tehnologija danas i kako donosioci politika mogu riješiti ove izazove kako bi osigurali i inovaciju i javnu sigurnost?"
U današnjem svijetu, vještačka inteligencija (AI) postaje sve prisutnija tema, ne samo u tehnološkim krugovima, već i u svakodnevnom životu. Sundar Pichai, izvršni direktor Google-a, izjavio je nešto što savršeno sažima trenutnu situaciju: "Vještačka inteligencija je previše važna da ne bude regulisana i previše važna da ne bude dobro regulisana".
Ali, kako regulisati nešto što se razvija toliko brzo da naši zakoni jedva uspijevaju da ga prate? To je kao da pokušate da uhvatite munju golim rukama - izazovno, u najmanju ruku.
AI sistemi su poput "crnih kutija" - znamo šta ulazi i šta izlazi, ali ono što se dešava unutra je često misterija, čak i za njihove kreatore. Kako regulisati nešto što u potpunosti ne razumijemo?
Dodajte tome činjenicu da AI ne poznaje granice. Algoritam razvijen u Silicijumskoj dolini može se za tren oka primijeniti u Berlinu ili Tokiju. To znači da nam je potreban globalni pristup regulaciji, što nije lak zadatak s obzirom na različite kulturne, ekonomske i političke kontekste širom svijeta.
Balansiranje između inovacija i sigurnosti je još jedan izazov. Možete li da vozite automobil sa jednom nogom na gasu, a drugom na kočnici? Previše regulacije može usporiti napredak, dok premalo regulacije može dovesti do ozbiljnih rizika.
AI otvara i složena etička pitanja koja je teško regulisati. Cathy O'Neil, autorka knjige "Weapons of Math Destruction", upozorila je: "Algoritmi ugrađuju postojeće pristrasnosti u kod sa potencijalno destruktivnim ishodima. Svako treba da preispituje njihovu pravednost, ne samo kompjuterski naučnici i programeri"
Suočeni s ovim izazovima, donosioci politika moraju razmišljati izvan sadašnjih okvira. Jedan od pristupa je stvaranje "sandbox" okruženja - kontrolisanih prostora gdje se nove AI tehnologije mogu testirati, a propisi prilagoditi na osnovu stvarnih rezultata.
Transparentnost je još jedan ključni faktor. Kompanije moraju znati da objasne i dokumentuju kako njihovi AI sistemi donose odluke i na osnovu kojih podataka.
Međunarodna saradnja je neophodna. Inicijative poput OECD-ovih Principa o AI-ju ili UN Principa za etičku upotrebu AI-ja predstavljaju korak u pravom smjeru, pružajući globalni okvir za odgovorni razvoj AI-ja.
Takođe, važno je uključiti širok spektar stručnjaka u proces izrade regulative. To nije samo posao za programere - potrebni su nam etičari, pravnici, ekonomisti, sociolozi i predstavnici različitih zajednica na koje AI može uticati.
Umjesto da propisuju specifične tehničke zahtjeve, regulatori treba da definišu željene ishode u smislu sigurnosti, pravednosti i transparentnosti. To bi pružilo fleksibilnost potrebnu za promociju inovacija.
Obrazovanje je veoma važno. Što više razumijemo AI, to ćemo bolje biti opremljeni da donosimo informisane odluke o njenoj upotrebi i regulaciji.
Na kraju, podsticanje samoregulacije u okviru AI industrije može biti koristan pristup jer se dobro pokazao u nekim drugim oblastima. Mnoge vodeće tehnološke kompanije već su usvojile etičke smjernice za razvoj AI-ja, ali je važno da ove inicijative budu ispraćene robusnim mehanizmima društvene odgovornosti.
Kao što je Brad Smith, predsjednik Microsofta, rekao: "Moramo osigurati da AI ostane pod ljudskom kontrolom. Bez obzira da li se radi o vladi, vojsci ili bilo kojoj drugoj organizaciji koja razmišlja o korišćenju AI-ja, ključno je da ljudi zadrže kontrolu - da možemo usporiti ili isključiti tehnologiju kada je to potrebno.”
Regulacija AI tehnologija je složen, ali neophodan zadatak. Balansiranjem između inovacija i sigurnosti, transparentnosti i fleksibilnosti, međunarodne saradnje i lokalnih potreba, možemo stvoriti okvir koji će omogućiti odgovoran razvoj AI-ja. Na kraju krajeva, cilj nije samo stvoriti pametnije mašine, već i mudrije društvo.
"Kako vidite ulogu međunarodne saradnje u regulaciji AI i koje korake je potrebno preduzeti kako bi se stvorili kohezivni globalni standardi?"
AI ne poznaje granice. Zbog toga je međunarodna saradnja u regulaciji AI-ja ne samo poželjna, već i neophodna.
Bez globalne saradnje, mogli bismo se naći u situaciji sličnoj poreskim rajevima, samo ovog puta sa "AI rajevima". Zamislite zemlje koje nude labavu regulaciju AI-ja kako bi privukle kompanije, stvarajući tako opasnu "trku do dna" u standardima. Ne bi bilo dobro za korisnike, a na kraju ni za inovacije.
Kako bi međunarodna saradnja mogla izgledati? Dobar primjer je CERN-a, gdje naučnici iz cijelog svijeta zajedno rade na rješavanju složenih problema fizike. Slično tome, mogli bismo imati globalni tim stručnjaka koji se bave izazovima AI-ja.
Standardizacija je još jedan važan aspekt. Zamislite da svaka zemlja ima različite standarde za AI sisteme - to bi bilo kao da imate različite utičnice za svaki električni uređaj u svakoj zemlji. Globalni standardi su neophodni da bi AI sistemi mogli da "razgovaraju" jedni s drugima i da postoji fer tržišna utakmica.
Neki rizici povezani s AI-jem, poput autonomnog oružja, zahtijevaju globalnu koordinaciju. Kao što je svijet riješio problem nuklearnog naoružanja, mogao bi da se potrudi da riješi problem regulacije potencijalno opasnih AI tehnologija.
Kako da počnemo? Prvi korak trebao bi da bude uspostavljanje međunarodnog tijela za koordinaciju AI politika. Zamislite to kao svojevrsne "Ujedinjene nacije za AI". Ovo tijelo moglo bi djelovati pod okriljem stvarnih UN, slično Međuvladinom panelu o klimatskim promjenama (IPCC).
Sljedeći korak bio bi definisanje zajedničkih principa. Ovo bi bile osnovne etičke smjernice koje bi vodile razvoj i primjenu AI-ja. OECD je već napravio dobar početak s svojim Principima o AI-ju, koje su usvojile 42 zemlje.
Harmonizacija regulativa među različitim zemljama je ambiciozan, ali neophodan cilj. EU Akt o vještačkoj inteligenciji mogao bi poslužiti kao model za druge regije. Znate kako se kaže da ono što se desi u Vegasu, ostaje u Vegasu? Kada je riječ o EU regulativama, često se dešava suprotno, ono što se desi u Briselu, širi se na ostatak svijeta. To je poznato kao "Briselski efekat".
Razvoj globalnih tehničkih standarda za sigurnost, privatnost i pouzdanost AI sistema je važan dio ove slagalice. To bi bilo slično globalnim standardima za bezbjednost automobila - bez obzira gdje ga kupite, znate da ispunjava određene sigurnosne kriterijume.
Takođe, važno je uspostaviti mehanizme za razmjenu informacija. Platforma slična Aviation Safety Reporting System-u mogla bi da se koristi za dijeljenje informacija o AI incidentima i najboljih praksi.
Ne smijemo zaboraviti ni zemlje u razvoju. Izgradnja njihovih kapaciteta za regulaciju AI-ja je izuzetno važna za istinski globalni pristup..
Regulatorni okviri moraju biti sposobni da se brzo prilagode tehnološkim promjenama. To je kao određivanje pravila za igru koja se stalno mijenja - morate biti spremni da prilagodite pravila u hodu.
Za neke kritične aspekte AI-ja, poput potpuno autonomnih oružanih sistema, trebaće nam pravno obavezujući međunarodni sporazumi. Kampanja "Stop Killer Robots" je primjer globalnog pokreta koji radi na ovom cilju.
Na kraju, potreban nam je način da pratimo razvoj i primjenu AI-ja na globalnom nivou. Potrebna nam je globalna "kontrolna tabla" za AI, koja nam pokazuje gdje smo i kuda idemo.
António Gutereš, Generalni sekretar UN-a, sažeo je ovu potrebu za globalnom saradnjom rekavši: "Pozdravljam pozive za stvaranje novog tijela Ujedinjenih nacija koje bi podržalo kolektivne napore za upravljanje ovom izvanrednom tehnologijom... Novo tijelo UN-a okupilo bi ekspertizu i stavilo je na raspolaganje međunarodnoj zajednici."
Dakle, kao što vidimo, regulacija AI-ja nije zadatak za jednu zemlju ili jednu grupu stručnjaka. To je globalni izazov koji zahtijeva globalnu saradnju. Baš kao što smo se ujedinili da se borimo protiv klimatskih promjena ili da istražujemo svemir, tako se moramo ujediniti i u upravljanju razvojem AI-ja. Na kraju krajeva, AI ima potencijal da transformiše naš svijet na načine koje tek počinjemo da razumijemo. Naša je odgovornost da osiguramo da ta transformacija bude na dobrobit cijelog čovječanstva.
"Na koje načine se transparentnost i odgovornost mogu integrisati u AI sisteme kako bi se izgradilo povjerenje javnosti, i koje su regulatorne mjere potrebne za sprovođenje ovih principa?"
Zamislite svijet u kojem računari donose odluke koje utiču na vaše zdravlje, finansije, pa čak i slobodu. Dobrodošli u sadašnjost! Vještačka inteligencija postaje sve važniji dio naših života, a sa tim dolazi i potreba da osiguramo da je ona pouzdana, pravična i etička. Ali kako to postići?
Prvo, zamislite AI kao crnu kutiju koja donosi odluke bez objašnjenja. Ne sviđa vam se ta ideja? E pa, tu na scenu stupa "Objašnjiva AI" ili XAI. To je kao da toj crnoj kutiji dodamo prozor kroz koji možemo vidjeti kako ona razmišlja. Postoji alat zvan LIME (Local Interpretable Model-agnostic Explanations) koji može da objasni zašto je AI sistem donio određenu odluku, i to na način koji mi, obični smrtnici, razumijemo.
AI sistemi bi trebalo da imaju uputstvo za upotrebu. Kao i bilo koja druga tehnologija. Google je pokrenuo projekt "Model Cards", koji je kao lični karton za svaki AI model. On vam kaže čemu model služi, koliko je dobar u svom poslu i koje su mu slabe tačke. Kao da imate detaljnu biografiju za svaki AI sistem.
Kompanije koje razvijaju AI trebalo bi redovno da objavljuju kako njihovi sistemi rade, uključujući i greške koje prave. OpenAI, na primjer, to redovno radi. Mada, moramo priznati, još uvijek kriju neke "tajne recepte" svojih najnovijih modela.
Sada, lijepo bi bilo da svaki AI sistem ima svoju "crnu kutiju" poput onih u avionima. To je ono što zovemo revizorskim tragom. Dr. Timnit Gebru, poznata stručnjakinja za etiku u AI, kaže da bez toga ne možemo znati ko je kriv kada AI napravi grešku.
Koliko god AI sistemi bili “inteligentni”, ljudi ih moraju nadgledati.Čak i kad imate vrlo pametnog asistenta - i dalje želite da šef (u ovom slučaju, čovjek) ima posljednju riječ, posebno kada su u pitanju važne odluke. Evropska unija to shvata ozbiljno i u svom AI Aktu insistira na ljudskom nadzoru za AI sisteme visokog rizika.
A kako bismo mogli regulisati AI? Evo nekoliko ideja:
Prvo, prije nego što pustimo AI sistem "u divljinu", treba zahtijevati procjenu uticaja. To je kao studija uticaja na okolinu, ali za AI. Kanada je već uvela takav zakon za svoje državne institucije koje koriste AI.
Zatim, mogli bismo postaviti minimalne standarde za objašnjivost AI odluka. EU je već napravila korak u tom smjeru sa svojim "pravom na objašnjenje" za automatizovane odluke koje značajno utiču na ljude.
Možda bismo mogli uvesti i sistem sertifikacije za AI sisteme, nešto poput oznake "Energetski efikasno" na kućnim aparatima. IEEE već ima "Etički AI sertifikat" kao oznaku kvaliteta za AI sisteme.
I na kraju, ali ne manje važno, moramo zaštititi zviždače - ljude koji prijavljuju neetičke ili nesigurne prakse u razvoju AI. To je sigurnosni ventil koji nam pomaže da održimo sistem odgovornim.
Regulacija AI je još u povoju, ali nije kao da počinjemo od nule. Imamo bogato iskustvo u regulisanju drugih tehnologija i aktivnosti koje možemo iskoristiti. To je kao kad gradimo novu kuću - možda nikad prije nismo gradili baš takvu, ali znamo osnovne principe gradnje.
U suštini, cilj svih ovih mehanizama je da osiguramo da AI, koliko god bila moćna, ostane alat koji služi ljudima, a ne obrnuto. Na kraju, želimo AI koji je ne samo pametan, već i pouzdan, pravedan i etičan partner u našem sve tehnološkijem svijetu.
"Koja bi trebalo biti uloga etike AI u regulatornom procesu i kako se etička razmatranja mogu sistematski integrisati u razvoj i implementaciju AI?"
Etika u AI nije samo ukras koji dodajemo na kraju - to je temelj na kojem gradimo cijelu strukturu. Kao armatura u betonu - nevidljiva, ali ključna za čvrstinu i stabilnost. Kada govorimo o AI regulaciji, etika je ta koja osigurava da su ljudska prava, dostojanstvo i dobrobit u središtu pažnje.
Kako etika oblikuje AI u praksi? Prvo, ona nam pomaže da postavimo granice. Baš kao što imamo pravila o tome gdje se može graditi, etika nam govori gdje i kako možemo koristiti AI. Na primjer, u zdravstvu, etička pitanja o privatnosti pacijenata i pravednom pristupu zdravstvenoj zaštiti određuju kako se AI sistemi koriste za dijagnozu i liječenje.
Etika takođe usmjerava inovacije. Etika nas podstiče da razvijamo AI sisteme koji ne rade samo ono što im kažemo, već ono što je zaista korisno i dobro za društvo.
A što se tiče procjene rizika?. Etička analiza nam pomaže da identifikujemo potencijalne probleme prije nego što AI sistem pustimo u "divljinu" stvarnog svijeta.
Kako osigurati da se etika zaista ugradi u AI sisteme? Evo nekoliko ideja:
Prvo, potrebni su nam etički kodeksi. IEEE Global Initiative već je napravila dobar početak, pružajući sveobuhvatan etički okvir za razvoj AI.
Multidisciplinarni timovi su takođe ključni dio priče. AI timovi moraju uključti etičare, sociologe, pravnike, ekonomiste i druge stručnjake uz tehničko osoblje.
"Etički dizajn" je još jedan važan koncept. To je kao da gradimo most imajući na umu ne samo njegovu funkciju, već i kako će se uklopiti u okolinu i služiti zajednici. U AI svijetu, to znači razmišljanje o etičkim implikacijama u svakoj fazi razvoja.
I na kraju, ali ne manje važno, potrebna nam je transparentnost algoritama. Ljudi moraju da znaju kako AI donosi odluke, posebno kada te odluke utiču na njihove živote.
Integracija etike u regulaciju i razvoj AI nije samo moralna obaveza - to je praktična neophodnost. To zahtijeva stalnu saradnju između svih uključenih - regulatora, industrije, akademske zajednice i civilnog društva.
"Može li se razgovarati o potencijalnom uticaju AI regulacija na mala i srednja preduzeća (SME) i startup-e? Kako se regulacije mogu dizajnirati da podrže inovacije, a istovremeno osiguraju usklađenost?"
David i Golijat. To je otprilike situacija u kojoj se nalaze mala i srednja preduzeća (MSP) i startapi u odnosu na velike kompanije u svijetu vještačke inteligencije (AI), posebno kada je riječ o regulaciji. Kako osigurati da ova "mala riba" ne samo preživi, već i raste i razvija se u moru AI inovacija?
Stroga pravila zahtijevaju značajna ulaganja u resurse za usklađenost, što je posebno teško za manje kompanije. Na primjer, kada je GDPR stupio na snagu u EU, mnogi mali biznisi su se suočili s značajnim troškovima implementacije..
Regulacija o privatnosti i korištenju podataka može malim preduzećima i startapima ograničiti pristup velikim skupovima podataka potrebnim za razvoj AI. Ovo je posebno izazovno u sektorima poput zdravstva, gdje su veliki, kvalitetni skupovi podataka ključni za razvoj preciznih AI modela.
A što se tiče konkurencije, to je kao kad se mali lokalni prodavac takmiči s velikim trgovačkim lancima. Veće kompanije mogu lakše apsorbovati troškove usklađenosti, što im daje prednost na tržištu.
Ali nije sve tako crno. Dobro osmišljena pravila mogu biti pečat kvaliteta koji povećava povjerenje potrošača. To je posebno važno u osjetljivim područjima poput finansijskih usluga ili zdravstvene zaštite. Kao sertifikat o bezbjednosti hrane u restoranu - može vam dati prednost nad konkurencijom.
Kako onda dizajnirati regulativu koja podržava inovacije? Evo nekoliko ideja:
- Proporcionalni pristup: Trebaju nam manje strogi zahtjevi za manje rizične AI aplikacije i manje kompanije. EU AI Akt je dobar primjer ovoga, kategorišući AI sisteme prema nivou rizika.
- Regulatorni sandbox: U svijetu AI, to znači stvaranje sigurnog prostora gdje startupi mogu testirati svoje inovativne ideje s manje regulatornih ograničenja. UK Financial Conduct Authority je pionir u ovom pristupu kada su finansijske usluge u pitanju.
- Podrška za usklađenost: Pružiti resurse, smjernice i alate koji pomažu manjim kompanijama da se usklade sa regulativom. Na primjer, Evropska komisija je uspostavila AI-on-demand platformu koja pruža resurse i ekspertizu za MSP i startape koji razvijaju AI rješenja..
- Fokus na ishode: Dizajnirati regulativu koja se fokusira na željene ishode umjesto na specifične tehnologije, omogućavajući fleksibilnost u pristupu..
- Participativni proces: Uključiti predstavnike MSP i startap zajednice u proces kreiranja javnih politika kako bi se osiguralo da su njihove potrebe i izazovi uzeti u obzir. Finska je dobar primjer ovog pristupa, s njihovom AI strategijom koja je razvijena u bliskoj saradnji s predstavnicima industrije, uključujući i startape..
Balansiranje inovacija i regulacije u AI sektoru je kao hodanje po žici. Cilj je stvoriti ekosistem koji podstiče inovacije, štiti javni interes i osigurava fer tržišnu utakmicu. To zahtijeva kontinuiranu saradnju između svih uključenih - regulatora, industrije, akademske zajednice i civilnog društva.
Na kraju, želimo svijet u kojem i David i Golijat mogu da funkcionišu. Svijet u kojem male, inovativne kompanije mogu da rastu i razvijaju se, donoseći nam nove, uzbudljive AI tehnologije, dok istovremeno štitimo javni interes i osiguravamo fer igru za sve. To nije lak zadatak, ali je neophodan ako želimo iskoristiti puni potencijal AI revolucije.
Bonus video: