Vještačka inteligencija "izmišlja" svaki treći odgovor: Otkrivene alarmantne greške
Nova studija Europske radiodifuzne unije otkriva alarmantne stope grešaka među popularnim chat botovima s vještačkom inteligencijom. Sistemi redovno izmišljaju informacije, pa čak i navode lažne izvore.
Pitaju ChatGPT o rezultatima izbora, traže od Claudea da sumira vijesti ili od Perplexitya da im da osnovne informacije o sukobu na Bliskom istoku: stotine miliona ljudi svakodnevno se oslanjaju na chat botove s vještačkom inteligencijom kao izvore informacija. Samo ChatGPT svake sedmice koristi 800 miliona ljudi širom svijeta. Za mnoge, ti digitalni asistenti već su zamjena za tradicionalne pretrage na Googleu.
Ali to povjerenje je rizično, kao što pokazuje nova studija Europske radiodifuzne unije (EBU). Udruženje 68 javnih emitera iz 56 zemalja sistematski je testiralo pouzdanost najpopularnijih sistema sa vještačkom inteligencijom.
Raste zabrinutost u EU nakon Putinove prijetnje ratom: Pogledajte šta kažu građani devet zemalja
Rezultat je zastrašujući: ChatGPT, Claude, Gemini i drugi chat botovi izmišljaju i do 40 posto svojih odgovora i predstavljaju ih kao činjenice.
Halucinacije: Vještačka inteligencija uvjerljivo laže
Popularni chat bot ChatGPT čvrsto tvrdi da je papa Franjo još uvijek živ. Microsoftov Copilot, koji je integrisan u kancelarijske programe Word i Excel, ne zna da je Švedska u NATO-u. A Googleov Gemini smatra da je ponovni izbor Donalda Trumpa "moguć", iako se to odavno dogodilo.
"Sistemi zvuče uvjerljivo, iako više puta tvrde potpuno lažne stvari", upozorava ekonomista Peter Posh s Tehničkog univerziteta u Dortmundu. "To ih čini posebno opasnima za neiskusne korisnike, jer greške često nisu odmah očigledne."
Postoji fenomen koji stručnjaci nazivaju "halucinacija": vještačka inteligencija fantazira o informacijama koje djeluju koherentno, ali nemaju činjeničnu osnovu. To se posebno često dešava kod regionalnih događaja, aktuelnih dešavanja ili kada je potrebno povezati više informacija, piše Deutsche Welle.
Prijetnja demokratiji
Ali šta to znači za društvo u kojem sve više ljudi dobija informacije od chat botova? Posljedice su već primijetne: lažne informacije brzo se šire društvenim mrežama, jer korisnici dijele "činjenice" koje generiše vještačka inteligencija bez provjere. Đaci i studenti uključuju izmišljene informacije u svoje radove. Građani mogu da donose odluke o tome za koga će da glasaju na osnovu lažnih tvrdnji.
Posebno je problematično to što mnogi korisnici nisu ni svjesni da chat botovi mogu da haluciniraju. Oni pretpostavljaju da tehnologija funkcioniše objektivno i činjenično, što je opasna zabluda. Sistemi vještačke inteligencije upozoravaju na potencijalne greške u svojim uslovima korištenja, ali – ko to još čita?
Šteta po ugled medija
Još jedan problem tiče se kredibiliteta etabliranih medija. Chat botovi redovno tvrde da njihove izmišljene informacije dolaze od takvih izvora kao što su na primjer njemački javni servisi ARD ili ZDF, iako oni o tome nikada nisu izvještavali – ili su izvještavali sasvim drugačije. Korisnici gube povjerenje u renomirane izvore kada vještačka inteligencija zloupotrebljava njihova imena za širenje lažnih informacija.
Studija EBU testirala je chat botove sa stotinama činjeničnih pitanja: o historijskim događajima, naučnim nalazima i aktuelnim vijestima. U zavisnosti od teme, stopa grešaka kretala se od 15 do čak 40 posto. Nijedna od testiranih vještačkih inteligencija nije radila besprijekorno.
Zašto vještačka inteligencija griješi?
Problem je u sistemu: chat botovi zapravo ne razumiju šta govore. Oni izračunavaju koje riječi će vjerovatno da odgovaraju na osnovu ogromnih količina teksta i ne mogu da provjere da li je izjava koja je proizvod takvih izračunavanja tačna. Oni nemaju znanje o činjenicama, imaju samo statističke obrasce.
Tehnološke kompanije svjesne su tih nedostataka i rade na rješenjima. Integrišu baze podataka, poboljšavaju navođenje izvora i preobučavaju sisteme. U razvoj se ulažu milijarde. Ipak, halucinacije ostaju fundamentalni, neriješeni problem s tom tehnologijom.
Istraživanje pokazalo: ChatGPT može zaobići zaštitne mjere i davati štetne savjete djeci
Šta korisnici mogu da urade?
EBU preporučuje jasna pravila za postupanje sa chat botovima: nikada ne vjerujte slijepo, uvijek provjeravajte važne informacije, za vijesti i činjenice oslanjajte se na etablirane medije, a ne na vještačku inteligenciju. Oprez se posebno savjetuje kada su u pitanju političke teme, zdravstvena pitanja ili finansijske odluke.
Škole i univerziteti moraju da podučavaju medijsku pismenost: kako da prepoznam dezinformacije koje generiše vještačka inteligencija, koji izvori su pouzdani? Njemačka vlada planira kampanje za podizanje svijesti – ali one kasne. Milioni ljudi već dugo i svakodnevno koriste tu tehnologiju.
Dok ona ne postane pouzdanija, važi sljedeće: chat botovi mogu biti korisni za kreativne zadatke ili kao pomagala za pisanje, ali nisu pogodni kao provjeravači činjenica ili izvori vijesti. I niko ne bi trebalo stoprocentno da se na njih oslanja.
Svako ko želi da bude informisan ne može izbjeći renomirane medije kojima su ljudi urednici, koji provjeravaju izvore i procjenjuju tvrdnje i dokaze. Digitalna revolucija može da promijeni mnoge stvari, ali potreba za pažljivim istraživanjem i provjeravanjem činjenica ostaje.
Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.