Staće na kraj imitaciji glasa: Raičević i Fatić autori platforme koja prepoznaje softverski razvijen govor

Ideja za VirtuGuardians nastala iz rastuće zabrinutosti zbog zloupotrebe AI-generisanih glasova, posebno u prevarama preko telefonskih poziva, kažu u razgovoru za “Vijesti”

Raičević i Fatić i poručuju da većina građana još nije svjesna kako glasovi koji su na taj način generisani lako mogu biti zloupotrijebljeni

56851 pregleda 142 reakcija 12 komentar(a)
AI generisani glasovi postaju sve napredniji i teže ih je razlikovati od pravih: Vladimir Fatić i Anđela Raičević, Foto: Privatna arhiva
AI generisani glasovi postaju sve napredniji i teže ih je razlikovati od pravih: Vladimir Fatić i Anđela Raičević, Foto: Privatna arhiva

Skoro milion eura jedan italijanski preduzetnik uplatio je nakon što je ministar odbrane u toj zemlji Gvido Krozeto zatražio hitnu finansijsku pomoć za oslobađanje italijanskih novinara koji su oteti na Bliskom istoku. Navodno.

Navodno, jer Krozeto nije ni uputio takav zahtjev, već su i on i više italijanskih biznismena žrtve prevare u kojoj je vještačka inteligencija (Artificial Intelligence, AI) korišćena kako bi imitirali Krozetov glas i, koristeći ga, naveli i uvjerili druge da postupe po molbi i, u ovom slučaju, uplatili određena novčana sredstva.

Ideja je nastala iz rastuće zabrinutosti zbog zloupotrebe AI-generisanih glasova, posebno u prevarama preko telefonskih poziva. Svjedočili smo sve većem broju slučajeva u kojima su napadači koristili deepfake glasove za manipulaciju i prevaru, bilo da je riječ o finansijskim prevarama, lažnim identitetima ili čak pokušajima narušavanja privatnosti i reputacije. Shvatili smo da postoji potreba za alatkom koja može prepoznati ovakve zloupotrebe i pomoći u zaštiti korisnika

Rojters je u februaru objavio da je italijanska policija slučaj riješila i da su novac, skoro milion eura, koliko je istaknuti preduzetnik iz Italije prebacio na inostrani bankovni račun, pronašli u Holandiji.

Ova vrsta prevare poznata je kao “deepfake” prevara i naprednu tehnologiju vještačke inteligencije koristi za stvaranje uvjerljivih lažnih audio ili video zapisa. Prevaranti mogu da imitiraju glasove ili lica stvarnih osoba, kako bi uvjerili žrtve da preduzmu određene radnje, poput prenosa novca ili otkrivanja osjetljivih informacija.

Upravo to inspirisalo je Anđelu Raičević, studentkinju III godine Elektrotehničkog fakulteta Univerziteta Crne Gore da razvije VirtuGuardians, platformu koja koristi AI model, koji analizira akustične karakteristike glasa i prepoznaje obrasce koji su tipični za generisane glasove. Ideja je proglašena za najbolju na prvom predinkubacionom startap programu SkillsUp, koji su lani organizovali Naučno-tehnološki park Crne Gore i Crnogorski telekom. Projekte je predstavilo ukupno sedam timova. Uz Anđelu Raičević, na razvoju VirtuGuardiansa radi i Vladimir Fatić, koji je na doktorskim studijama na Arhitektonskom fakultetu UCG.

Fatić i Raičević
Fatić i Raičevićfoto: Boris Pejović

U razgovoru za “Vijesti”, Raičević pojašnjava kako su došli na ideju za VirtuGuardians, kako sistem funkcioniše, te kako im je i SkillsUp program pomogao u razvoju projekta.

“Ideja je nastala iz rastuće zabrinutosti zbog zloupotrebe AI-generisanih glasova, posebno u prevarama preko telefonskih poziva. Svjedočili smo sve većem broju slučajeva u kojima su napadači koristili deepfake glasove za manipulaciju i prevaru, bilo da je riječ o finansijskim prevarama, lažnim identitetima ili čak pokušajima narušavanja privatnosti i reputacije. Shvatili smo da postoji potreba za alatkom koja može prepoznati ovakve zloupotrebe i pomoći u zaštiti korisnika”, kazala je ona.

Na pitanje kako funkcioniše taj sistem koji prepoznaje softverski generisan glas, Raičević je rekla da VirtuGuardians koristi AI model koji analizira akustične karakteristike glasa i prepoznaje obrasce koji su tipični za generisane glasove.

Raičević
Raičevićfoto: Boris Pejović

“Oslanjamo se na duboko učenje i analizu spektrograma kako bismo identifikovali nepravilnosti koje ljudsko uho ne može lako detektovati. Sistem zatim upoređuje uzorke sa bazom poznatih AI-generisanih glasova i procjenjuje vjerovatnoću da je glas autentičan ili generisan”.

Autorski tim pojašnjava i da razvoj ovog rješenja prate i izazovi, od kojih je najveći taj što AI generisani glasovi postaju sve napredniji i teže ih je razlikovati od pravih.

Zbog toga je, kaže Raičević, potrebno stalno unaprjeđivanje modela, kako bi mogao prepoznati nove metode generisanja glasova.

“Takođe, balansiranje tačnosti i brzine detekcije je ključno - sistem mora biti dovoljno brz da radi u realnom vremenu, ali i dovoljno precizan da izbjegne lažne pozitivne i negativne rezultate”, rekla je ona.

U vezi sa tim koliko je tehnologija trenutno precizna u razlikovanju pravog glasa od deepfake glasova, Raičević kaže da trenutna preciznost varira u zavisnosti od kvaliteta uzorka.

“Ali u našim testiranjima sistem postiže tačnost iznad 90 odsto. Međutim, kako deepfake tehnologija napreduje, moramo neprestano ažurirati algoritme i trenirati ih na novim podacima kako bismo održali visoku preciznost”.

SkillsUp program kroz koji su Raičević i Fatić prošli i u okvir kojeg su razvijali VirtuGuardians, organizovan je lani prvi put. Program je, kako su ranije saopštili iz Naučno-tehnološkog parka, osmišljen da podstakne preduzetnički duh i razvije inovativne ideje mladih talenata. SkillsUP program obuhvatio je interaktivna predavanja, radionice i mentorski rad na ključnim preduzetničkim temama. Učesnici su imali priliku da uče od predavača poput Vladimira Vulića, Stjepana Udovičića, Jasne Pejović, Srne Sudar, Aleksandra Janičića, Danila Nikovića, Marka Ljubenovića i Radivoja Drobnjaka. Sa učesnicima programa radili su mentori Marjan Popović, menadžer Službe za multimedijalne sadržaje u Crnogorskom Telekomu, Ivan Šoć, osnivač Five Grupe, Nikola Mićunović, Preduzetničko gnijezdo UDG, Uroš Bulatović i Igor Goranović iz Unije mladih preduzetnika Crne Gore i Nikša Bulatović iz kompanije Adriatic Bridge Partners.

Fatić
Fatićfoto: Boris Pejović

“SkillsUp program nam je omogućio strukturiran pristup razvoju ideje, kao i mentorstvo od strane stručnjaka koji su nam pomogli da bolje definišemo poslovni model i tehničke aspekte projekta. Takođe, imali smo priliku da testiramo našu ideju kroz radionice i dobijemo vrijedne povratne informacije”, kaže Raičević.

Kad je u pitanju mentorski rad, ona je kazala da su od mentora naučili koliko je važno jasno komunicirati vrijednost svog proizvoda, kako identifikovati ključne korisnike i kako se nositi s tehničkim i poslovnim izazovima.

Korisno je, dodaje, bilo i to što su mogli da razmijene iskustva i sa drugim timovima. To je, kako je kazala, pomoglo da sagledaju različite pristupe inovaciji i rješavanju problema.

Kad govore o budućim planovima, autori VirutGuardiansa kažu da će dalje da usavršavaju model i testiraju ga u realnim scenarijima, ali i da će istraživati mogućnosti za integraciju sa postojećim komunikacionim i bezbjednosnim sistemima.

Sljedeći koraci, kaže Raičević, uključuju poboljšanje modela kroz dublju analizu i prikupljanje novih podataka, integraciju sa API-jem za lakšu implementaciju u različite sisteme i rad na povećanju tačnosti u detekciji. Istražuju i mogućnosti za finansiranje kako bi proširili tim i ubrzali razvoj, a razmatraju i modele pretplate ili licenciranja za kompanije koje žele da koriste njihovu tehnologiju.

U kontaktu su već i sa određenim institucijama i kompanijama koje bi mogle imati koristi od njihovog sistema, poput banaka, call centara i službi za sajber bezbjednost.

“Smatramo da bi saradnja s vladinim sektorom mogla biti ključna za regulaciju i suzbijanje zloupotreba deepfake tehnologije”, rekla je Raičević.

Raičević kaže da u svijetu postoje projekti koji su slični VirtuGuardiansu, ali i da je većina njih fokusirana na prepoznavanje deepfake videa, dok se ona i Fatić specijalizuju za analizu glasova.

“Naš sistem je dizajniran da bude jednostavan za integraciju i da radi u realnom vremenu, što ga čini pogodnim za široku primjenu u različitim sektorima”, poručila je sagovornica “Vijesti”.

Većina nije svjesna opasnosti

Na pitanje o tome kako vide budućnosti AI u oblasti sajber bezbjednosti, Raičević kaže da će AI “igrati ključnu ulogu u prepoznavanju i prevenciji sajber prijetnji, ali će istovremeno i napadači koristiti AI za sofisticiranije prevare”.

Zbog toga će se, dodaje, razvijati sve napredniji bezbjednosni sistemi zasnovani na mašinskom učenju.

Nije optimista kad je u pitanju svijest o opasnostima deepfake tehnologije.

“Većina ljudi još nije svjesna koliko su uvjerljivi deepfake glasovi i kako lako mogu biti zloupotrijebljeni. Edukacija i razvoj alata poput VirtuGuardiansa su ključni za podizanje svijesti i zaštitu korisnika”.

Bonus video: