NEKO DRUGI

Muški pristup

Ideja da bi AI mogla da razvije vlastitu svijest pomjera fokus na buduću odgovornost tehnologije, umjesto na aktuelnu odgovornost krupnih tehnoloških kompanija

5854 pregleda 0 komentar(a)
Ilustracija, Foto: Shutterstock
Ilustracija, Foto: Shutterstock

Mjesecima nas upozoravaju na superinteligentne modele vještačke inteligencije koji bi jednog dana mogli da izazovu uništenje ljudske vrste. Sem Altman, izvršni direktor kompanije Open AI, kaže da bi ova tehnologija mogla da označi “naš kraj”, dok pionir vještačke inteligencije Džefri Hinton svoj otkaz u Guglu obrazlaže strahom od prijetnje koju AI predstavlja po budućnost čovječanstva. Centar za bezbjedan AI objavio je saopštenje o opasnosti od izumiranja civilizacije.

Ove tvrdnje su zastrašujuće – ali ne zato što su tačne, nego zato što preusmjeravaju razgovor o uticajima vještačke inteligencije i smislu odgovornog razvoja AI.

Priča da bi tehnologija jednog dana mogla samostalno da razvije nadljudsku inteligenciju i postane prijetnja čovečanstvu poznat je filmski zaplet, duboko utisnut u naše predstave o vještačkoj inteligenciji. Odavno smo navikli na taj narativ u medijima, ali je ove godine ušao i u političke i pravne diskusije o vještačkoj inteligenciji.

To bi trebalo da nas zabrine, jer se nudi malo ili nimalo dokaza koji potkrepljuju te emotivne i senzacionalističke izjave, dok ponuđeni primjeri padaju već na prvoj probi. Recimo, tvrdnje da veliki jezički modeli pokazuju takozvana emergentna svojstva (sposobnosti za koje nisu trenirani, ali su se nekako pojavile) obično se tiču nepredviđenih, mada ipak objašnjivih funkcija modela. Kada je izvršni direktor Guglove matične kompanije Alfabet, Sundar Pačai, rekao da Guglov četbot Bard odgovara na upite na bengalskom, iako nije bio treniran za taj jezik, verovatnije objašnjenje dala je bivša zaposlenica Gugla Margaret Mičel, koja je navela da su u Bardov razvoj bili uključeni aspekti njegovog prethodnika, jezičkog modela PaLM, u čijim se podacima za trening nalazio i bengalski jezik.

To je još jedan podsjetnik da AI modeli rade samo ono za šta su programirani. Tvrdnje o emergentnim svojstvima služe da se ućutkaju zahtjevi za transparentnošću i prekinu rasprave o odgovornosti programera.

Najglasnija upozorenja o navodnom egzistencijalnom riziku dolaze iz Silicijumske doline. Na prvi pogled, to djeluje nespojivo sa interesima koje krupne kompanije imaju od ulaganja u inovacije i razvoj AI. Međutim, ovi narativi upravo štite njihove interese tako što pažnju javnosti sa onoga što kompanije rade danas, skreću na nagađanja o hipotetičkim budućim kapacitetima AI.

Ideja da bi AI mogla da razvije vlastitu svijest pomjera fokus na buduću odgovornost tehnologije, umjesto na aktuelnu odgovornost krupnih tehnoloških kompanija. Sve to stvara iluziju neizbježnosti, jer sugeriše da svjedočimo evoluciji vještačke inteligencije, a ne nizu svjesnih odluka organizacija i ljudi podložnih kontroli.

Važno je imati u vidu ne samo ono što se govori, već i ko će biti saslušan. Vidjeli smo kako regulatori širom Evrope srdačno dočekuju Altmana, dok ljudi na koje AI negativno utiče jedva da se čuju. To je simptom onoga što je profesorka Kejt Kroford nazvala “problemom bijelog muškarca”: tvrdnje o egzistencijalnom riziku uglavnom iznose imućni bijelci na pozicijama moći, oni koji su danas najmanje izloženi šteti zbog vještačke inteligencije, dok za nju snose najveću odgovornost.

Zaista se nalazimo u kritičnom trenutku dok vlade svijeta pokušavaju da izađu na kraj sa izazovima efikasnog regulisanja vještačke inteligencije. Umjesto da se bavimo interesima krupnih tehno kompanija i njihovim fantazijama o opštoj AI, ključno je suprotstaviti se narativima o superinteligenciji i egzistencijalnom riziku i usredsrediti ove diskusije na ljude i zajednice koje već trpe stvarne uticaje zbog primjene novih tehnologija.

Autorka je sociološkinja, istražuje etička pitanja na Institutu Alan Turing u Britaniji

(New Scientist)

Bonus video:

(Mišljenja i stavovi objavljeni u rubrici "Kolumne" nisu nužno i stavovi redakcije "Vijesti")