Morate biti oprezni: Ovo su svi načini na koje prevaranti koriste umjetnu inteligenciju

0
Radiosarajevo.ba
Morate biti oprezni: Ovo su svi načini na koje prevaranti koriste umjetnu inteligenciju

Umjetna inteligencija pomoći će oko svega i svačega, u rasponu od uredskih poslova do izrade umjetničkih djela. Ali, također može poslužiti i za prijevare.

Evo što trebate znati o tome.

I dalje su to prijevare slične onima s kojima se već godinama susrećemo. Ali, generativna umjetna inteligencija ih čini uvjerljivijima i lakšima za masovnu proizvodnju te plasman.

Barcelona ne žali novac: Flick pravi posao decenije i dovodi čudo vrijedno 100 miliona eura

Ovo nije potpuni popis, tek nekoliko najčešće korištenih trikova na koje možete naići. Očekujte kako će ih biti sve više i više.

Kloniranje glasa porodice i prijatelja

Sintetički glasovi prisutni su desetljećima, ali tek je u posljednjih godinu ili dvije napredak u tehnologiji omogućio generiranje novog glasa iz samo nekoliko sekundi zvuka.

To znači kako je svatko čiji je glas ikada bio javno emitiran, na primjer, u izvještaju, YouTube videu ili na društvenim medijima, može postati žrtvom neželjenog kloniranja.

Novo lice političke kampanje: Prvi AI zastupnik na svijetu kandidat za britanski parlament

Prevaranti mogu i jesu koristili ovu tehnologiju za izradu uvjerljivih lažnih inačica glasovnih poruka bliskih osoba ili prijatelja.

Mogu ih natjerati da kažu bilo što, ali najčešće će tražiti pomoć, novac u hitnim situacijama i tome slično. Žrtvom ove vrste prevare bio je i američki predsjednik Joe Biden, stoga nemojte misliti kako se vama to ne može dogoditi.

Kako se možete boriti protiv kloniranja glasa?

Nemojte se truditi uočiti lažni glas. Svakim su danom sve bolji i postoji mnogo načina za prikrivanje problema s kvalitetom. Mogu zavarati i stručnjake.

Sve što dolazi s nepoznatog broja, adrese e-pošte ili računa automatski bi trebali smatrati sumnjivim. Ako neko tvrdi kako vam je prijatelj ili voljena osoba, pokušajte kontaktirati tu osobu na uobičajeni način i provjeriti o čemu se radi.

UNESCO izdao zabrinjavajuće upozorenje o umjetnoj inteligenciji: Prisutno falsificiranje historije

Prevaranti obično neće biti naročito uporni ako ih ignorirate, dok član porodice ili prijatelj vjerovatno hoće. Stoga, ako vam se nešto čini sumnjivim, nemojte žuriti s odgovorom.

Personalizirani phishing i spam putem e-pošte i poruka

Svi s vremena na vrijeme dobijemo neželjenu poštu, ali umjetna inteligencija za generiranje teksta omogućuje slanje masovne e-pošte prilagođene pojedincu koja može zvučati prilično uvjerljivo, pa i koristiti vaše osobne podatke koji su negdje nekome ukradeni.

Kako se možete boriti protiv neželjene e-pošte?

Kao i kod tradicionalnog spama, oprez je najbolje oružje. Nemojte se truditi prepoznati je li umjetna inteligencija pisala tekst ili nije.

Umjesto toga, obratite pažnju na druge znakove upozorenja. Prevare ove vrste će vas nastojati navesti na otvaranje privitaka ili poveznica. Ako ne znate pošiljatelja i/ili ne očekujete takvu poruku, nemojte ništa klikati, niti otvarati. Već je i malo sumnje dovoljno da ne riskirate.

Prijevara s lažnim identitetom i verifikacijom

Ako slijedite dobre sigurnosne prakse na mreži, veliki dio rizika je umanjen jer redovno mijenjate svoje lozinke, uključili ste višestepensku potvrdu i tome slično.

Umjetna inteligencija uzima maha: Ovo su nove korekcije koje je primijenila Meta

Ipak, generativna umjetna inteligencija može predstavljati ozbiljnu prijetnju. Uz toliko podataka o nekome dostupnih na webu, sve je lakše stvoriti umjetnom inteligencijom stvoriti virtualnu osobu koja zvuči kao stvarna i ima pristup velikom broju činjenica koje se koriste za provjeru identiteta.

Opasnost nije toliko u tome koliko bi ovo lažno predstavljanje bilo realno, već u tome što je prevarantima lako izvoditi ovu vrstu napada široko i opetovano.

Ranije je to bilo znatno skuplje i dugotrajnije, pa je bilo rezervirano uglavnom za bogataše. Danas metom može biti bilo ko, pa tako i vi.

Kako se možete boriti protiv prevare s lažnim identitetom?

Višestepenska provjera autentičnosti je najvažniji pojedinačni korak koji bilo ko poduzeti. Bilo kakva ozbiljna aktivnost računa ide ravno na vaš telefon, a sumnjive prijave ili pokušaji promjene lozinki pojavit će se u e-pošti.

Umjetna inteligencija ide korak dalje: 'Sada će biti moguće razgovarati sa preminulim ljudima?'

Nemojte zanemariti ova upozorenja ili ih označiti kao neželjenu poštu, čak i ako ih stiže puno. Pogotovo ako ih stiže puno.

Deepfake i ucjene generirane umjetnom inteligencijom

Možda najstrašniji oblik prevare s umjetnom inteligencijom je mogućnost ucjene pomoću lažnih slika vas ili voljene osobe.

Osvetnička pornografija zbog mogućnosti koje pruža umjetna inteligencija poprima sasvim nove razmjere, pa i uklanja potrebu za stvarnim intimnim slikama.

Bilo čije lice moguće je dodati nečijem razgolićenom tijelu. Čak i ako rezultati nisu uvijek uvjerljivi, to može biti dovoljno kako bi nekog zastrašilo i natjeralo na plaćanje otkupnije. A jednom kad platite, nećete se tako lako riješiti ucjenjivača.

Kako se boriti protiv deepfakeova koje je generirala umjetna inteligencija?

Postoji nekoliko stvari koje idu u prilog potencijalnim žrtvama. Ovi slikovni modeli mogu proizvesti realistična tijela na neki način, ali poput druge generativne umjetne inteligencije, znaju samo ono na čemu su trenirani.

Tako lažne slike, recimo, neće imati pojedinosti specifične za vaše tijelo, ili će biti pogrešne na drugi način. Također, sve je više načina kako žrtve mogu ishoditi uklanjanje slika ili zabraniti prevarantima pristup stranicama na kojima objavljuju, piše Tportal.

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (0)

/ Povezano

/ Najnovije

Podijeli članak