Znate li kako možete prepoznati lažni audiozapis: Uz ove metode ste sigurni
Lažiranje glasova političara i javnih ličnosti, može biti posebno opasno tokom izborne sezone i često ih je teško razotkriti. Kako ih možete prepoznati?
Da li je bivši američki predsjednik Barack Obama sugerisao da iza neuspjelog atentata na njegovog nasljednika Donalda Trampa stoje demokrate?
SAD-om kruži nekoliko audio snimaka na kojima Obama navodno razgovara sa svojim bivšim savjetnikom Dejvidom Akselrodom o predstojećim američkim predsjedničkim izborima u novembru.
Istraživanje o učenicima u BiH: Informacijska pismenost i vještine na alarmantno niskom nivou
U jednom od odlomaka glas koji zvuči kao Obamin kaže: "To im je bila jedina šansa, a ovi idioti su je propustili. Da su samo mogli da se otarase Trampa, obezbijedili bi pobjedu protiv bilo kog drugog republikanskog kandidata".
Međutim, audio je identifikovan kao lažan. Obama zapravo ništa nije rekao o tome. Umjesto toga, zvuk je generisan sintetički korištenjem vještačke inteligencije (AI).
Jeziv ispad: ChatGPT imitirao glas korisnika bez njegovog dopuštenja
NewsGuard, američka služba za dezinformacije i analizu medija, objavila je analizu audio zapisa. Tim NewsGuard-a je koristio više alata za otkrivanje vještačke inteligencije, intervjuisao stručnjaka za digitalnu forenziku i zaključio da su audio snimci lažni. Tim je razgovarao i sa Obaminim portparolom, koji je potvrdio da audio snimci nisu autentični.
Obama nije jedini političar čiji je glas bio lažiran. Ranije ove godine, glas američkog predsjednika Joea Bidena generisan vještačkom inteligencijom pozvao je birače na predizborima u Nju Hempširu da ne glasaju.
Ali, lažni audio zapisi se ne pojavljuju samo u Sjedinjenim Američkim Državama. Prošle godine, neposredno uoči predsjedničkih izbora u Slovačkoj, objavljen je lažni audio zapis (Audio-Deepfake) glasa lidera Liberalne partije Mihala Simecke. U Velikoj Britaniji, gradonačelnik Londona Sadik Kan postao je žrtva lažnog snimka vještačke inteligencije koji mu je stavio kontroverzne izjave u usta.
Lako za napraviti, teško razotkriti
U vremenima političke neizvjesnosti, lažiranje audio zapisa koje generiše vještačka inteligencija može biti posebno štetno tokom izbornih ciklusa jer ih je tako lako kreirati i distribuirati, piše Deutsche Welle.
"Potrebno im je manje podataka za obuku i procesorske snage – u poređenju sa lažnim video zapisima – da bi postigli skoro realne rezultate", kaže Ana Šild, stručnjakinja za medije i komunikaciju u timu za inovacije DW-a.
Zajedno sa svojom koleginicom Julijom Bajer ispitala je efekte audio-fejkova i objasnila zašto oni postaju sve popularniji. "Njihova svestranost, od automatizovanih poziva preko glasovnih poruka do video-voice-over, nudi mnogo različitih kanala distribucije", kaže Šild.
Sve više Nijemaca informacije o političkoj situaciji traži od AI: Građani se boje zloupotrebe
Audio-dipfejk je također teže otkriti od drugih oblika dezinformacija. "Jer, jednostavno imamo manje tragova", rekao je za DW Nikolas Miller, mašinski inženjer na njemačkom Fraunhofer institutu za primjenjenu i integrisanu bezbejdnost.
"U videu imamo audio i video zapis, i određeni sinhronicitet između njih", objašnjava Miler, koji je proučavao koliko dobro ljudi mogu da prepoznaju lažne snimke. On i njegove kolege su otkrili da, kada su audio fajlovi u pitanju, ima manje elemenata koji ukazuju na to da li je snimak autentičan ili ne.
Izoštravanje čula - također pomaže protiv lažiranja
Dakle, šta korisnici mogu da urade ako naiđu na audio datoteku koju je možda kreirala AI? Jedan od načina da provjerite da li su audio snimci stvarni ili ne jeste da pregledate datoteku da li postoje obrasci koji mogu ukazivati na manipulaciju vještačkom inteligencijom.
U gore pomenutom primjeru Baracka Obame, to bi značilo upoređivanje sumnjivog fajla sa poznatim i provjerenim audio snimkom njegovog glasa kako bi se pronašla moguća odstupanja od Obaminog normalnog načina govora.
Ovo može uključivati različite izgovore, neprirodne pauze ili neprirodno disanje. Pored toga, pozadinska buka ili neprirodni zvuci u audio materijalu koji je u pitanju mogu dati dodatne tragove.
Neuvježbanim ušima može biti teško da prepoznaju ove tragove. Međutim, postoji nekoliko alata koje ljudi mogu da koriste da vježbaju identifikaciju ove vrste dezinformacija. Jedan od njih je projekat detekcije lažnih audio zapisa Digger, koji je razvijen u saradnji sa DW-om. Projekat je kreirao praktične vježbe koje pomažu ljudima da vježbaju svoje veštine kritičkog slušanja.
Instagram je već pun AI djevojaka i momaka: Traže usamljene posvuda
Tim Nikolasa Milera je također razvio igru koja omogućava učesnicima da testiraju koliko dobro mogu da prepoznaju lažne audio zapise.
Korišctenje AI alata za borbu protiv AI dezinformacija
Druga opcija je korišctenje softvera sa vještačkom inteligencijom koji je obučen za otkrivanje audio lažiranja.
U našem primjeru sa Obaminim sintetizovanim glasom, NewsGuard je koristio deepfake checker kao što je TrueMedia, koji ima bot detektora lažnih audio zapisa. Prema sopstvenim informacijama, ovaj bot može da odgovori na zahtjeve za verifikaciju korisnika na platformi X.
Institut Fraunhofer je sada razvio Deepfake Total, platformu na koju korisnici mogu da postavljaju sumnjive audio datoteke i da ih analiziraju. Sve otpremljene datoteke se ocjenjuju korišćenjem takozvanog "Fake-O-Meter" brojem poena koji pokazuje koliko je vjerovatno da je neki zapis vještački stvoren ili izmanipulisan.
Alati za otkrivanje lažnih audio zapisa za sada nisu nepogrješivi. Iako često možete procijeniti vjerovatnoću da li je audio zapis generisan pomoću vještačke inteligencije, rezultat nije uvijek tačan. Zbog toga takve alate uvijek treba koristiti sa oprezom u provjeri.
Da bi provjerili audio zapise, korisnici također mogu da odu na druge pouzdane veb-sajtove i platforme i pretražuju da vide da li je dotični zapis već opovrgnut u drugim provjerama činjenica.
Musk tuži tehnološkog giganta: 'Prevara i obmana su Šekspirovskih razmjera'
Nekoliko medijskih kuća je također razvilo alate za identifikaciju lažnih audio zapisa, uključujući VerificAudio španske medijske kompanije PRISA Media, koja ima za cilj da otkrije lažne snimke u zemljama španskog govornog područja.
Hoze Gutijerez iz PRISA Media objasnio je u intervjuu za DW da je alatka zasnovana na dva procesa vođena vještačkom inteligencijom: dok prvi upoređuje sumnjive audio zapise sa autentičnim audio snimcima iste osobe, drugi analizira različite akustičke karakteristike kao što su propusni opseg, visina, frekvencija i tekstura zvuka.
Gutijerez je takođe naglasio da ovaj alat ne daje definitivne odgovore, već može da pruži samo vjerovatnoću.
Provjerite kontekst
Također može pomoći da se fokusirate na tradicionalnije metode verifikacije koje nisu ograničene na audio snimke kada identifikujete audio lažne.
Tim DW Research and Cooperations, kome pripada Ana Šild, sastavio je neke korisne alate na veb stranici "How to Verify" (Kako da provjerim).
Anketa | Šta mislite koje poslove umjetna inteligencija neće moći zamijeniti?
Korisni savjeti uključuju:
1. Uporedi audio sadržaj sa poznatim činjenicama
2. Provjeri kanale društvenih medija te osobe
3. Provjeri pouzdane izvore vijesti za dodatni kontekst
Na kraju, sve se svodi na mješavinu različitih tehnika. Kako DW Research and Cooperations ističe, "ne postoji rješenje sa jednim dugmetom koje može da otkrije bilo kakvu vrstu manipulacije u audio materijalu".
Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.