AI terapeut: mogu li čatbotovi poboljšati mentalno zdravlje?

Od SAD do Južne Afrike, čatbotovi za mentalno zdravlje koji koriste vještačku inteligenciju postaju sve popularniji usred nedostatka zdravstvenih resursa, uprkos zabrinutosti tehnoloških stručnjaka oko privatnosti podataka i etike savjetovanja

16468 pregleda 36 reakcija 3 komentar(a)
Foto: Shutterstock
Foto: Shutterstock

Savjetnica za mentalno zdravlje Nikol Dojl bila je zapanjena kada se šef američkog Nacionalnog udruženja za poremećaje u ishrani (NEDA) pojavio na sastanku osoblja da bi najavio da će četbot (chatbot) zamijeniti telefonsku liniju te grupe za pružanje pomoći.

Nekoliko dana nakon što je linija za pomoć ukinuta, bot - po imenu Tesa - takođe je ukinut zbog pružanja štetnih savjeta ljudima sa mentalnim oboljenjem, piše Fondacija Tomson Rojters (TRF).

“Ljudi su otkrili da je davao savjete za mršavljenje osobama koje su mu rekle da se bore sa poremećajem u ishrani”, rekla je Dojl (33), jedna od pet zaposlenih koji su otpušteni u martu, otprilike godinu nakon što je čatbot pokrenut.

“Iako bi Tesa mogla da simulira empatiju, to nije isto što i prava ljudska empatija”, rekla je Dojl.

NEDA je saopštila da iako je istraživanje funkcionisanja bota dalo pozitivne rezultate, oni utvrđuju šta se dogodilo sa datim savjetima i “pažljivo razmatraju” sljedeće korake. NEDA nije direktno odgovorila na pitanja o viškovima savjetnika, ali je saopštila da nije bio plan da čatbot zamijeni liniju za pomoć.

Od SAD do Južne Afrike, čatbotovi za mentalno zdravlje koji koriste vještačku inteligenciju (AI) postaju sve popularniji usred nedostatka zdravstvenih resursa, uprkos zabrinutosti tehnoloških stručnjaka oko privatnosti podataka i etike savjetovanja, piše TRF.

Dok digitalni alati za mentalno zdravlje postoje duže od decenije, sada ima više od 40 čatbotova za mentalno zdravlje širom svijeta, prema podacima Međunarodnog časopisa za medicinsku informatiku.

Džona, student antropologije iz Njujorka, godinama je probao desetak različitih psihijatrijskih ljekova i linija za pomoć kako bi mu pomogli da se nosi sa svojim opsesivno-kompulzivnim poremećajem.

On je sada je dodao ChatGPT na svoju listu službi za pomoć kao dopunu nedjeljnim konsultacijama sa terapeutom.

Džona je i prije ChatGPT-a razmišljao o razgovoru sa mašinom jer “već postoji rastući ekosistem oduška u prazno na Tviteru i Diskordu”, rekao je za TRF.

Iako je ovaj 22-godišnjak, koji je tražio da koristi pseudonim, rekao da ChatGPT daje “standardne savjete”, on ga smatra korisnim “ako ste uznemireni i samo vam treba da čujete nešto osnovno... umjesto da brinete sami”.

Troškovi velika prepreka

Tehnološki startapi za mentalno zdravlje prikupili su 1,6 milijardi dolara rizičnog kapitala od decembra 2020. godine, kada se mentalno zdravlje našlo u centru pažnje zbog kovida-19, prema podacima kompanije PitchBook.

“Potreba za medicinskom pomoći na daljinu je još više naglašena pandemijom kovida”, rekao je Johan Stejn, istraživač vještačke inteligencije i osnivač AIforBusiness.net, konsultantske kuće za AI obrazovanje i upravljanje.

Procjenjuje se da je milijarda ljudi širom svijeta živjela sa anksioznošću i depresijom prije kovida - 82 odsto njih u zemljama sa niskim i srednjim prihodima, prema podacima Svjetske zdravstvene organizacije (SZO). Pandemija je povećala tu cifru za oko 27 odsto, procjenjuje SZO.

I liječenje mentalnih poremećaja je podijeljeno prema prihodima, pri čemu su troškovi velika prepreka za pristup njezi.

Istraživači upozoravaju da iako pristupačnost AI terapije može biti primamljiva, tehnološke kompanije moraju paziti da ne nameću nejednakost u zdravstvenoj zaštiti.

Ljudi bez pristupa internetu rizikuju da budu izostavljeni, ili pacijenti sa zdravstvenim osiguranjem mogu pristupiti ličnim terapijskim posjetama, dok onima bez pristupa ostaje jeftinija čatbot opcija, prema Brukings institutu.

Zaštita privatnosti

Uprkos rastu popularnosti čatbotova za podršku mentalnom zdravlju širom svijeta, zabrinutost u vezi sa privatnošću i dalje predstavlja veliki rizik za korisnike, otkrila je Mozila fondacija u istraživanju objavljenom u maju.

Od 32 aplikacije za mentalno zdravlje i molitve, kao što su Talkspace, Woebot i Calm, koje je analizirala ova tehnološka neprofitna organizacija, 28 je označeno zbog “jake zabrinutosti povodom upravljanja korisničkim podacima”, a 25 nije ispunilo bezbjednosne standarde kao što je zahtijevanje jakih lozinki.

Na primjer, čatbot za mentalno zdravlje Woebot je istaknut u istraživanju zbog “dijeljenja ličnih podataka sa trećim licima”.

chat
foto: Reuters

Woebot kaže da, iako promoviše tu aplikaciju koristeći ciljane oglase na Fejsbuku, “nikakvi lični podaci se ne dijele niti prodaju tim marketinškim/reklamnim partnerima”, i da daje korisnicima mogućnost da izbrišu sve svoje podatke na zahtjev.

Istraživač Mozile Miša Rikov opisao je pomenute aplikacije kao “mašine za usisavanje podataka sa izgledom aplikacije za mentalno zdravlje”, koje otvaraju mogućnost da podatke korisnika prikupljaju posrednici za osiguranje i podatke, te kompanije društvenih mreža.

Stručnjaci za AI upozoravaju da bi kompanije za virtuelnu terapiju mogle izgubiti osjetljive podatke zbog sajber provala.

“AI čatbotovi se suočavaju sa istim rizikom za privatnost kao i tradicionalniji čatbotovi ili bilo koja onlajn usluga koja prihvata lične podatke korisnika”, kaže za TRF Eliot Bendineli, viši tehnolog u grupi za prava Privacy International.

U Južnoj Africi, aplikacija za mentalno zdravlje Panda treba da pokrene “digitalnog saputnika” koji je proizvod vještačke inteligencije, a koji bi ćaskao sa korisnicima, davao predloge za liječenje i, uz saglasnost korisnika, davao rezultate i uvide o korisnicima tradicionalnim terapeutima koji su takođe dostupni u aplikaciji.

“Saputnik ne zamjenjuje tradicionalne oblike terapije, već ih proširuje i pomaže ljudima u svakodnevnom životu”, rekao je osnivač Pande Alon Lits.

Panda šifruje sve rezervne kopije i pristup AI razgovorima je potpuno privatan, rekao je Lits.

Stručnjaci za tehnologiju kao što je Stejn nadaju se da će snažna regulativa na kraju moći da “zaštiti od neetičkih praksi vještačke inteligencije, ojača bezbjednost podataka i održi dosljednost zdravstvenih standarda”.

Od Sjedinjenih Država do EU, zakonodavci žure da regulišu AI alate i vrše pritisak na industriju da usvoji dobrovoljni kodeks ponašanja dok se pripremaju novi zakoni.

Empatija

Bez obzira na to, anonimnost i nedostatak osude su razlog zašto su se ljudi poput 45-godišnjeg Tima, menadžera jednog skladišta u Britaniji, obratili ChatGPT-u umjesto ljudskom terapeutu.

“Znam da je to samo veliki jezički model i da ne “zna” ništa, ali zapravo olakšava razgovor o pitanjima o kojima ne razgovaram ni sa kim drugim”, rekao je Tim - nije njegovo pravo ime - koji se obratio botu u pokušaju da odagna hroničnu usamljenost.

Istraživanja pokazuju da empatija čatbotova može biti veća od ljudske.

Studija iz 2023. u američkom časopisu interne medicine JAMA procijenila je odgovore četbota i ljekara na 195 nasumično izvučenih pitanja pacijenata sa jednog foruma društvenih mreža.

Otkrili su da su odgovori bota ocijenjeni “značajno više i po kvalitetu i po empatiji” u poređenju sa odgovorima ljekara.

Istraživači su zaključili da “asistenti vještačke inteligencije mogu da pomognu u sastavljanju odgovora na pitanja pacijenata”, a ne da u potpunosti zamijene ljekare”.

Ali, iako botovi mogu simulirati empatiju, to nikada neće biti isto kao ljudska empatija za kojom ljudi čeznu kada pozovu liniju za pomoć, rekla je Dojl, bivša savjetnica NEDA.

“Trebalo bi da koristimo tehnologiju da radi zajedno sa nama ljudima, a ne da nas zamijeni”, ocijenila je.

Bonus video: