daleko od cilja

Za Teslu, Facebook i druge, nedostaci u Vještačkoj Inteligenciji (AI) se ne mogu više ignorisati

Investitori ulažu novac u vještačku inteligenciju, uprkos jasnim zastojima u automobilima koji se sami voze, društvenim medijima, pa čak i zdravstvenoj zaštiti.

25768 pregleda 3 komentar(a)
Foto: Pixabay.com
Foto: Pixabay.com

Šta je zajedničko osnivačima Facebooka Marku Zakerberg i CEO-u Tesle, Elonu Masku? Oboje se bore sa velikim problemima koji, bar djelimično, proističu iz povjerenja u sisteme vještačke inteligencije koji su za sada se šokazali kao neuspješnim. Zakerberg se bavi algoritmima koji ne uspijevaju da zaustave širenje štetnog sadržaja; Mask sa softverom koji tek treba da vozi automobil na način na koji je često obećavao.

Postoji jedna lekcija koju treba izvući iz njihovog iskustva: Vještaćka Inteligencija još nije spremna za masovnu 'upotrebu', piše Bloomberg. Štaviše, teško je znati kada će to biti. Kompanije bi trebalo da razmotre usredsređivanje na njegovanje visokokvalitetnih podataka i zapošljavanje ljudi za obavljanje poslova za koje Vještačka Inteligencija nije spremna.

Dizajnirani da labavo oponašaju ljudski mozak, sistemi Vještačke Inteligencije za duboko učenje mogu uočiti tumore, voziti automobile i pisati tekst, pokazujući spektakularne rezultate u laboratorijskim uslovima. Ali u tome i jeste problem. Što se tiče upotrebe tehnologije u nepredvidljivom stvarnom svijetu, AI ponekad ne uspijeva. To je zabrinjavajuće, posebno kada se promoviše za upotrebu u industrijama sa visokim ulogom, poput zdravstvene zaštite. Ulozi su takođe opasno visoki za društvene medije, gdje sadržaj može uticati na izbore i podstaći poremećaje mentalnog zdravlja, kako je otkriveno u nedavnom izlaganju internih dokumenata uzbunjivača. Ali Facebook-ova vjera u vještačku inteligenciju jasna je na sopstvenoj veb lokaciji, gdje se često 'hvale' algoritmima mašinskog učenja, prije nego pomenu svoju vojsku moderatora sadržaja.

vještačka inteligencija
foto: Pixabay.com, Tech Times

Zakerberg je takođe tokom svjedočenja u Američkom Kongresu 2018. godine rekao da bi alati Vještačke Inteligencije mogli biti „skalabilan način“ za identifikaciju štetnog sadržaja. Ti alati dobro rade na otkrivanju golotinje i sadržaja povezanih s terorizmom, ali se i dalje bore da spriječe širenje dezinformacija. Problem je u tome što se ljudski jezik stalno mijenja. Aktivisti koji se bore protiv vakcine koriste trikove poput kucanja „va((ine“ kako bi izbjegli otkrivanje, dok privatni prodavci oružja postavljaju slike praznih kutija na 'Facebook Marketplace' sa opisom „pošalji mi poruku“. Time zavaraju sisteme dizajnirane da zaustave ovakav sadržaj, a da stvar bude gora, AI često preporučuje i taj sadržaj.

Nije ni čudo što je otprilike 15.000 moderatora sadržaja angažovanih za podršku Facebook-ovim algoritmima preopterećeno. Prošle godine studija poslovne škole Stern Universiti u Njujorku preporučila je Facebooku da udvostruči te radnike na 30.000 kako bi pravilno nadzirali postove ako AI nije na visini zadatka. Keti O'Nil, autorka knjige 'Weapons of Math Destruction' rekla je da Facebook-ova VI "ne radi". Zakerberg je sa svoje strane rekao poslanicima da je Vještačkoj Inteligenciji teško moderirati postove zbog nijansi govora.

MASKOVA OSJEDNUTOST AI-JEM

Maskovo precjenjivanje vještačke inteligencije je praktično legendarno. Godine 2019. rekao je Teslinim investitorima da se „osjeća veoma uvjereno“ da će na ulicama biti milion modela 3 kao 'robo-taksije' bez vozača. Njegov vremenski okvir: 2020. Umjesto toga, kupci Tesle trenutno imaju privilegiju da plate 10.000 dolara za poseban softver koji će jednog dana (ili ko zna?) pružiti potpuno autonomne mogućnosti vožnje. Do tada, automobili mogu da parkiraju, mijenjaju trake i sami voze na autoput uz povremenu ozbiljnu grešku. Mask je nedavno u tvitu priznao da je generalizovana tehnologija za samostalnu vožnju „težak problem“.

ZDRAVSTVO I AI

Još iznenađujuće: AI takođe nije uspeo u zdravstvu, oblasti koja je obećala tehnologiju. Ranije ove godine studija u Natureu analizirala je desetine modela mašinskog učenja dizajniranih za otkrivanje znakova COVID-19 na rendgenskim snimcima i CT skeniranjima. Utvrđeno je da se nijedan ne može koristiti u kliničkom okruženju zbog različitih nedostataka. Druga studija objavljena prošlog mjeseca u 'British Medical Journal'-u otkrila je da je 94% VI sistema koji su skenirali radi otkrivanja znakova raka dojke manje precizni od analize jednog radiologa. „Bilo je mnogo zabuna da je [skeniranje VI u radiologiji] neizbježno, ali je ta pojava donekle bila ispred rezultata“, kaže Sijan Tejlor-Filips, profesor zdravlja na Univerzitetu Varvik koji je takođe vodio studiju.

Vladini savjetnici će izvući iz njenih rezultata odluku o tome da li takvi sistemi vještačke inteligencije čine više koristi nego štete i da li su spremni za upotrebu. U ovom slučaju šteta ne izgleda očigledna. Na kraju krajeva, sistemi za otkrivanje raka dojke koji se pokreću vještačkom inteligencijom dizajnirani su da budu previše oprezni i mnogo je vjerovatnije da će dati lažne alarme nego promašiti znakove tumora. Ali čak i mali procenat povećanja stope opoziva za skrining raka dojke, koja je 9% u SAD i 4% u Velikoj Britaniji, znači povećanu anksioznost hiljada žena zbog lažnih uzbuna. „To znači da prihvatamo štetu za žene koje su pregledane samo da bismo mogli da primjenimo novu tehnologiju“, kaže Tejlor-Filips.

Čini se da greške nisu ograničene na samo nekoliko studija. „Prije nekoliko godina bilo je mnogo obećavanja i mnogo hajpa o tome da je vještačka inteligencija prvi prolaz za radiologiju“, kaže Ketlin Valš, partnerka u kompaniji za obavještavanje o tržišnoj inteligenciji 'Cognilitica'. "Ono što smo počeli da vidimo je da AI ne otkriva ove anomalije bilo kojom brzinom koja bi bila od pomoći."

MNOGO NOVCA!

Ipak, nijedna od ovih crvenih zastavica nije zaustavila poplavu novca koja ide u AI. Globalna ulaganja rizičnog kapitala u startapove vještačke inteligencije porasla su u posljednjih godinu dana, prema 'PitchBook Data', kompaniji koja prati privatna tržišta kapitala.

vještačka inteligencija
foto: Pitchbook

Pominjanje „vještačke inteligencije“ u izvještajima na zaradu stalno kompanije je raslo u posljednjoj deceniji i odbijalo je da utihne, prema analizi transkripata koju je objavio Bloomberg. Uz sve ove investicije, zašto AI nije tamo gdje smo se nadali da će biti? Dio problema je nadutost tehnološkog marketinga. Ali i sami naučnici vještačke inteligencije mogu biti djelimično krivi. Sistemi se oslanjaju na dvije stvari: funkcionalni model i osnovne podatke za obuku tog modela. Da bi izgradili dobru vještačku inteligenciju, programeri moraju da potroše ogromnu većinu svog vremena, možda oko 90%, na podatke - prikupljaju ih, kategorizuju i čiste. To je dosadan i težak posao. Današnja zajednica mašinskog učenja ga takođe zanemaruje, jer naučnici stavljaju veću vrijednost i prestiž na zamršenost arhitekture VI ili na to koliko je model razrađen.

Jedan rezultat: Najpopularniji skupovi podataka koji se koriste za izgradnju AI sistema, poput 'računarskog vida' i 'obrade jezika', puni su greškama, prema nedavnoj studiji naučnika sa MIT -a. Kulturni fokus na složenoj izgradnji modela, zapravo, koči AI. Ali postoje ohrabrujući znaci promjene. Naučnici iz kompanije 'Google Alphabet' nedavno su se u konferencijskom radu žalili na problem modela i podataka, i predložili načine za stvaranje više podsticaja da se to popravi.

DALJI KORACI

Preduzeća takođe pomjeraju fokus sa prodavaca „AI kao servis“ koji obećavaju da će zadatke obavljati odmah iz kutije, poput magije. Umjesto toga, oni troše više novca na softver za pripremu podataka, kaže Brendan Burk, senior analitičar u 'PitchBook-u'. On kaže da su kompanije sa vještačkom inteligencijom kao što su 'Palantir Technologies' i 'C3.ai' „postigle rezultate koji nisu izvanredni“, dok kompanije za nauku o podacima kao što je 'Databricks' „postižu veća vrednovanja i vrhunske rezultate“.

U redu je da Vještačka Inteligencija povremeno zabrlja u situacijama gdje ulog nije veliki, poput preporuka filmova ili otključavanja pametnog telefona licem. Ali u oblastima poput zdravstvene zaštite i sadržaja na društvenim medijima, i dalje je potrebno više obuke i boljih podataka. Umjesto da pokušaju da učine da AI radi danas, preduzeća moraju postaviti temelje sa podacima i ljudima kako bi ona funkcionisala u (nadamo se) ne tako dalekoj budućnosti.

Preveo i priredio: Filip Ivanović

Izvor: Bloomberg

Bonus video:

(Mišljenja i stavovi objavljeni u rubrici "Kolumne" nisu nužno i stavovi redakcije "Vijesti")