Koristite AI chatbotove? Na jednu stvar morate posebno obratiti pažnju

0
Radiosarajevo.ba
Koristite AI chatbotove? Na jednu stvar morate posebno obratiti pažnju
Foto: Pexels / ChatGPT

Rezultati novog istraživanja još su jednom pokazali zašto ne smijemo slijepo vjerovati AI chatbotovima.

Iako je iskustvo pokazalo kako chatbotovi bazirani na umjetnoj inteligenciji mogu halucinirati, odnosno izmišljati stvari, čini se kako sa svakim danom ljudi postaju sve više ovisni o njima.

Umjesto putem Googlea, mnogi danas sve što ih zanima pretražuju putem ChatGPT-a i to ne samo obične svakodnevne stvari, već se sa chatbotovoima savjetuju i oko važnih stvari vezanih uz posao, zdravstveno stanje ili pomoć u svakodnevnom životu.

Sarajevo "prodisalo", vjetar rastjerao smog: Pogledajte očaravajuće prizore decembarske noći

Sarajevo "prodisalo", vjetar rastjerao smog: Pogledajte očaravajuće prizore decembarske noći

Koliko to može biti opasno pokazuje novo istraživanje naučnika s Univerziteta Stanford, a koje je nedavno objavljeno u časopisu Nature Machine Intelligence, piše Zimo.dnevnik.hr.

U njemu se upozorava na ozbiljan problem, a to je da poznati i popularni chatbotovi poput ChatGPT-a, ali i drugih (ukupno je testirano 24 chatbota uključujući i Googleov Gemini, Claude, DeepSeek itd.) i dalje ne mogu dovoljno dobro shvatiti razliku između činjenica i vjerovanja, odnosno između onog što je zaista istinito i onog što ljudi samo misle i vjeruju da je istina.

U SAD raste panika: Porodica tvrdi da je AI chatbot negativno utjecao na njihovo dijete

U SAD raste panika: Porodica tvrdi da je AI chatbot negativno utjecao na njihovo dijete

Miješaju vjerovanje sa činjenicama

Tokom istraživanja, a kako bi provjerili koliko dobro umjetna inteligencija razlikuje činjenice od uvjerenja, chatbotovima je predstavljeno 13 hiljada pitanja. Pokazalo se kako većina modela nema razumijevanja pojma znanja (što predstavlja vjerovanje koje je istinito i opravdano) te ne shvataju da znanje mora biti istinito. Chatbotovi tako mogu miješati vjerovanje sa činjenicom te reći, odnosno napisati nešto što će zvučati uvjerljivo, ali u biti neće biti tačno.

Ukratko, AI često ne može razlikovati "znam" od "mislim da znam", što naravno, može dovesti do širenja netačnih informacija.

To se pogotovo odnosi na starije modele koji su predstavljeni prije maja 2024. godine, dok je tačnost novih modela ipak bolja i iznosi više od 91 posto pri razlikovanju lažnih od istinitih tvrdnji.

Botovi su općenito imali problema sa "razumijevanjem prirode znanja" te su se oslanjali na nedosljedne strategije zaključivanja oslanjajući se na površno prepoznavanje uzoraka, umjesto stvarnog logičko rasuđivanje, stoji u istraživanju. Studija tako upozorava da AI modeli u biti i dalje ne razumiju stvarnu istinu, već predviđaju šta zvuči istinito, a u biti to ne mora biti tačno.

Istraživači: Razvijen novi softver AI koji ranije prepoznaje agresivne karcinome dojke?

Istraživači: Razvijen novi softver AI koji ranije prepoznaje agresivne karcinome dojke?

Greška Groka

Tako je spomenut nedavni primjer kada je investitor David Grunwald od Muskovog chatbota Grok AI zatražio da napravi plakat posljednjih deset britanskih premijera, a umjetna inteligencija je pri tome zamijenila Rishija Sunaka sa Borisom Johnsonom, dok je za Theresu May pisali da je bila premijerka od 5747. do 70. godine.

Ovakve pogreške i manjak razumijevanja posebno mogu biti opasne u nekim područjima u kojima je tačnost ključna i čak može značiti razliku između života i smrti pa se tako spominje prvenstveno medicina, ali i npr. pravosuđe.

Zbog toga, prije neke veće i ozbiljnije implementacije chatbotova i umjetne inteligencije u takve visokorizične sektore, potrebna su hitna poboljšanja AI chatbotova.

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (0)

/ Povezano

/ Najnovije