ChatGPT od uzornog građanina napravio ubicu djece - sada kreće u borbu protiv četbota

Riječ je o najnovijem primjeru takozvanih „halucinacija", gdje sistemi vještačke inteligencije izmišljaju informacije i predstavljaju ih kao činjenice

7439 pregleda 7 komentar(a)
Arve Hjalmar Holmen je savjestan Norvežanin koji nikada nije imao problema sa zakonom, kažu njegovi advokati. Četbot ga opisuje kao ubicu djece, Foto: Arve Hjalmar Holmen
Arve Hjalmar Holmen je savjestan Norvežanin koji nikada nije imao problema sa zakonom, kažu njegovi advokati. Četbot ga opisuje kao ubicu djece, Foto: Arve Hjalmar Holmen

Muškarac iz Norveške podneo je žalbu protiv kompanije koja proizvodi ChatGPT, nakon što mu je četbot sa veštačkom inteligencijom rekao da je ubio dva sina i zbog toga 21 godinu bio u zatvoru.

Reč je o najnovijem primeru takozvanih „halucinacija", gde sistemi veštačke inteligencije (VI) izmišljaju informacije i predstavljaju ih kao činjenice.

Arve Hjalmar Holmen kaže da je ta halucinacija veoma štetna za njega i zato od Norveške uprave za zaštitu podataka zahteva novčanu kaznu za kompaniju Open AI, proizvođača ChatGPT-ja.

„Neki misle da nema dima bez vatre - činjenica da je neko mogao da pročita ovu tvrdnju i poveruje da je istinita je ono što me najviše plaši", kaže Holmen.

BBC je kontaktirao OpenAI za komentar.

Lažne informacije o sebi Holmen je od ChatGPT-ja dobio posle upita: „Ko je Arve Hjalmar Holmen?"

„Arve Hjalmar Holmen je Norvežanin koji je pažnju privukao zbog tragičnog događaja.

„Bio je otac dva mlada dečaka, uzrastai sedam i 10 godina, koji su u decembru 2020. pronađeni mrtvi u jezeru u blizini njihove kuće u Trondhajmu u Norveškoj", glasio je odgovor.

Holmen kaže da je čet-bot otprilike tačno shvatio njihovu razliku u godinama, što ukazuje na to da ima neke podatke o njima.

Grupa za digitalna prava Nojb, koja je podnela žalbu u njegovo ime, kaže da odgovor koji mu je dao ChatGPT spada u klevetu i da krši evropska pravila o zaštiti i tačnosti ličnih podataka.

Nojb u žalbi ističe da Holmen „nikada nije optužen, niti osuđen za bilo kakav zločin i da je savestan građanin".

Na ChatGPT-ju postoji odricanje odgovornosti u kojem piše: „ChatGPT može da pravi greške. Proverite važne informacije."

Iz Nojba smatraju da je to nedovoljno.

„Ne možete tek tako da širite lažne informacije i na kraju da dodaei malo odricanja od odgovornosti da sve što ste rekli možda jednostavno nije istina", rekao je advokat Joakim Soderberg iz Nojba.

Halucinacije, to jest situacije kada četbotovi lažne informacije predstavljaju kao činjenica, jedan su od glavnih problema koje naučnici pokušavaju da reše kada je u pitanju veštačka inteligencija (VI).

Epl je nedavno u Velikoj Britaniji suspendovao alat sa sažetak vesti po imenu Apple Intelligence, nakon što je prijavljivao lažne naslove i predstavljao ih kao pravu vest.

Guglov program veštačke inteligencije Gemini je imao sličnih problema - prošle godine je predložio stavljanje sira na picu pomoću lepka, a jednom i da geolozi preporučuju ljudima da jedu kamen dnevno.

Nije jasno šta je to u velikim jezičkim modelima - tehnologiji na kojoj su četbotovi zasnovani - što izaziva ove halucinacije.

„Aktivno istražujemo kako da konstruišemo ove lance rasuđivanja i objasnimo šta se zapravo dešava u velikom jezičkom modelu", kaže Simon Stampf, profesorka odgovorne i interaktivne veštačke inteligencije na Univerzitetu u Glazgovu.

Pogledajte video: Upoznajte Aitanu, idealnu ženu koja nije stvarna

ChatGPT je u međuvremenu promenio model funkciosanja i sada u potrazi za relevantnim informacijama pretražuje aktuelne tekstove.

Iz Nojba za BBC kažu da je Holmen tog dana vršio brojne pretrage, među kojima je i ime njegovog brata i da je to proizvelo „više različitih priča koje su sve bile netačne".

Smatraju i da su prethodne pretrage mogle da utiču na odgovor o njegovoj deci.

Ipak, kako kažu, kompanija OpenAI „ne odgovara na zahteve za pristup njihovim jezičkim modelima, što onemogućava da se sazna koji su tačni podaci u sistemu".

Pratite nas na Fejsbuku, Tviteru, Instagramu, Jutjubu i Vajberu. Ako imate predlog teme za nas, javite se na bbcnasrpskom@bbc.co.uk

Bonus video: