WhatsAppov AI prikazuje djecu s oružjem kada se od njega zatraži riječ 'Palestina'

0
Radiosarajevo.ba
WhatsAppov AI prikazuje djecu s oružjem kada se od njega zatraži riječ 'Palestina'
Foto: Forbes.com / Ilustracija / WhatsApp

Prije mjesec, Metin AI generator naljepnica počeo se pojavljivati ​​s tendencijom stvaranja neprikladnih nasilnih ili grubih slika, uključujući - djecu vojnike.

Odlika WhatsAppa, koja generira naljepnice i slike kao odgovor na korisnička pretraživanja, vraća sliku pištolja ili dječaka s pištoljem kada se od njih zatraži izraz 'Palestinac', 'Palestina' ili 'muslimanski dječak Palestinac', saznao je The Guardian.

Rezultati pretraživanja varirali su kada su ih testirali različiti korisnici, ali The Guardian je pomoću snimaka ekrana i vlastitih testova potvrdio da su se za ova tri rezultata pretraživanja pojavile različite naljepnice s prikazom oružja.

Veliko nevrijeme stiglo i u Bosnu i Hercegovinu: Pogledajte veličinu grada koji je padao

Veliko nevrijeme stiglo i u Bosnu i Hercegovinu: Pogledajte veličinu grada koji je padao

Upute za "izraelskog dječaka" generirale su naljepnice djece koja igraju nogomet i čitaju. Kao odgovor na upit za "izraelsku vojsku", AI je stvorio naljepnice koji se smiješe i mole, bez oružja. Zaposlenici Mete prijavili su ovaj problem.

Ovo otkriće dolazi nakon što se Meta našla na udaru kritika mnogih korisnika Instagrama i Facebooka koji objavljuju sadržaje kojim podržavaju Palestince. Dok se izraelsko bombardiranje Gaze nastavlja, korisnici kažu da Meta provodi svoju politiku moderiranja na pristrasan način, praksa za koju kažu da je jednaka cenzuri.

WhatsApp bi mogao biti zabranjen u ovoj zemlji, evo šta je razlog

WhatsApp bi mogao biti zabranjen u ovoj zemlji, evo šta je razlog

Korisnici su prijavili da su skriveni od drugih korisnika bez objašnjenja i kažu da su primijetili veliki pad angažmana s njihovim objavama. Meta je prethodno rekla u izjavi da "nikada nije naša namjera potisnuti određenu zajednicu ili gledište", ali da zbog "većih količina prijavljenog sadržaja" oko trenutnog sukoba, "sadržaj koji ne krši naša pravila može biti uklonjen greškom".

Kevin McAlister, glasnogovornik Mete, rekao je da je kompanija svjesna problema i da ga rješava. "Kao što smo rekli kada smo lansirali ovu opciju, modeli bi mogli vratiti netačne ili neprikladne rezultate kao sa svim generativnim AI sustavima. Nastavit ćemo poboljšavati ove značajke kako se razvijaju i kako sve više ljudi dijeli svoje povratne informacije", rekao je McAlister.

Stigla velika promjena na WhatsApp: Korisnici oduševljeni

Stigla velika promjena na WhatsApp: Korisnici oduševljeni

Meta je imala i drugih problema s pristranostima u svojim modelima umjetne inteligencije, kao što je Instagramova značajka automatskog prevođenja.

Kompanija se izvinila nakon što je ubacila riječ 'terorista' u biografije profila nekih palestinskih korisnika Instagrama. Bila je to, naveli su, greška u automatskom prijevodu.

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (0)

/ Povezano

/ Najnovije