Istraživanje pokazalo: Googleovi AI sažeci šire opasne i netačne savjete za zdravlje

0
Radiosarajevo.ba
Istraživanje pokazalo: Googleovi AI sažeci šire opasne i netačne savjete za zdravlje

Istraživanje britanskog Guardiana otkriva da Googleove AI Overviews, alati koji koriste generativnu umjetnu inteligenciju za sažimanje ključnih informacija o temama ili pitanjima, ponekad pružaju netačne i potencijalno opasne zdravstvene informacije.

Iako Google tvrdi da su ove AI sažetke "korisne" i "pouzdane", stručnjaci ističu da neki prikazi na vrhu rezultata pretrage sadrže pogrešne savjete koji mogu ozbiljno ugroziti zdravlje korisnika.

U jednom od primjera, Google je pogrešno savjetovao osobe s rakom pankreasa da izbjegavaju masnu hranu, što stručnjaci smatraju "zaista opasnim", jer takva preporuka može povećati rizik od pogoršanja bolesti i smanjenja šansi za uspješnu terapiju.

Uznemirujući snimak iz Istočnog Jerusalema: Izraelac se smije dok razbija jaja tokom racije

U drugom slučaju, AI je pružio netačne podatke o ključnim testovima funkcije jetre, što bi moglo dovesti do toga da osobe s ozbiljnim oboljenjem jetre pogrešno misle da su zdrave. Također, pretrage vezane za ženske karcinome nudile su "potpuno pogrešne" informacije, što može rezultirati ignorisanjem stvarnih simptoma.

"Ljudi se u trenucima zabrinutosti i krize obraćaju internetu. Ako informacije koje dobiju nisu tačne ili su izvađene iz konteksta, to može ozbiljno štetiti njihovom zdravlju", rekla je Stephanie Parker, direktorica digitalnog sektora u Marie Curie, organizaciji koja pruža podršku osobama u završnim fazama života.

Anna Jewell iz Pancreatic Cancer UK dodaje: "Savjetovati pacijente da izbjegavaju masnu hranu je potpuno netačno i može ozbiljno ugroziti šanse pacijenata da budu dovoljno zdravi za liječenje, hemoterapiju ili životno spasavajuću operaciju."

Također, pretraga "normalni raspon krvnih testova jetre" davala je zbunjujuće i netačne informacije, bez obzira na spol, dob, etničku pripadnost ili državu pacijenta. "Opasno je jer osobe s ozbiljnim oboljenjem jetre mogu pomisliti da su njihovi rezultati u redu i propustiti kontrolni pregled", upozorava Pamela Healy iz British Liver Trust.

Netačne informacije pojavile su se i u pretragama vezanim za mentalno zdravlje, gdje su neki AI sažeci za stanja poput psihoze i poremećaja ishrane nudili "vrlo opasne savjete" i potencijalno obeshrabrivali ljude da potraže pomoć.

Google je odgovorio da većina AI Overviews pruža tačne informacije, te da se kontinuirano radi na poboljšanju kvaliteta, posebno kod tema poput zdravlja. Ipak, stručnjaci upozoravaju da generativni AI alati i dalje mogu biti zbunjujući i potencijalno opasni za korisnike koji pretpostavljaju da su informacije potpuno pouzdane, piše Guardian.

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (0)

/ Povezano

/ Najnovije

Podijeli članak