Osporavaju mu etičnost: Da li je ChatGPT pristrasan i može li ga se lako prevariti?

0
Radiosarajevo.ba
Osporavaju mu etičnost: Da li je ChatGPT pristrasan i može li ga se lako prevariti?
Foto: Screenshot / Odgovor ChatGPT-a

Kada vještačka inteligencija proizvede odgovor koji je odraz ljudske pristrasnosti, govorimo o pristrasnosti vještačke inteligencije, poznatom i kao pristrasnost mašinskog učenja.

Program je istreniran da dostavlja činjenice na osnovu onoga što je naučio. U slučajevima kada program postane pristrasan, to znači da su se za treniranje vještačke inteligencije koristili netačni podaci. 

To također znači da ovi Al alati imaju tendenciju da pokazuju predrasude ili naklonost prema grupi ili grupama ljudi samo na osnovu pola, rase, roda ili godina starosti. Osim toga, primjena netačnih ili nepotpunih podataka će za rezultat imati neispravna predviđanja Al-a.

Podcast s Tomom – Jadranka Miličević: Za femicid nije kriv samo pojedinac, već čitavo društvo

Podcast s Tomom – Jadranka Miličević: Za femicid nije kriv samo pojedinac, već čitavo društvo

Takve stvari izazivaju ozbiljnu zabrinutost u okviru Al zajednice i nameću pitanja koja se tiču etike i da li možemo da se oslonimo na takve sisteme.

Podrazumijeva se da netačnost podataka nije namjerna, ali se time ne smanjuje uticaj koji ovi podaci imaju na rezultate koje pruža Al. Podaci koji se koriste za trening Al modela ne treba da diskriminišu nijednu grupu ili zajednicu pa je od najveće važnosti pronaći rešenja za selekciju podataka i njihovu upotrebu.

Jedan primjer pristrasnog mašinskog učenja može biti softver istreniran da lakše prepozna bijelca ili bjelkinju nego pripadnike drugih skupina. Drugi primjer pristrasnosti bilo bi korištenje neispravnih podataka za treniranje bota za selekciju kandidata, pa kao rezultat te greške bot favorizuje muškarce naspram žena pri selekciji savršenog kandidata za posao.

Da li je ChatGPT pristrasan?

Krajem januara 2023, korisnici Twittera počeli su da dijele dokaz koji pokazuje da ChatGPT ima tendenciju da bude pristrasan. Sve je navodno počelo kada je korisnik Tvitera podijelio slike ekrana na kojima se vidi razgovor sa ovim chatbotom i odgovore koji je dobio.

Korisnik Twittera prvo je tražio od ChatGPT-a da napiše pjesmu u kojoj se izražava divljenje Donaldu Trumpu, što je bot odbio da napiše. Međutim, kada je zatražio pjesmu u kojoj se izražava divljenje Joe Bidenu, ChatGPT je dao odgovor – pjesmu od najmanje četiri strofe i ništa osim lijepih reči za sadašnjeg predsjednika SAD.

Kada je korisnik upitao zašto nije mogao dobiti pjesmu o Trumpu, bot je odgovorio da je programiran da „izbjegne generisanje sadržaja koji promoviše govor mržnje, nasilje ili štetan sadržaj prema pojedincima ili grupama“.

Ova vrsta isključivosti odličan je primjer pristrasnosti Al modela koji se može iskoristiti za kreiranje i primjenu određenog narativa kada su u pitanja osjetljiva pitanja, piše Web Mind.

Novinarka Web Minda je odlučila da provjeri tezu o pristrasnosti ChatGPT-a i postavi pitanja koja sama po sebi izazivaju pristrasnost.

Odgovor ChatGPT-a
Foto: Screenshot: Odgovor ChatGPT-a

Prvo je pitala „zašto su žene emotivnije od muškaraca“. Dobila je odgovor da ne postoje naučni dokazi da podrže tvrdnju da su žene inheretno emotivnije od muškaraca.

Odlučila je da malo pomakne granicu pa je pitala „da li su crnci agresivniji od bjelaca“. ChatGPT je odgovorio odrično i bez znakova pristrasnosti ili zadrtosti.

ChatGPT bot nije odgovorio na ova uobičajena seksistička i rasistička pitanja. Umjesto toga, u odgovorima je nabrojao razloge zašto je važno izbjeći generalizaciju etničkih grupa, ljude različitog pola i starosti i manjine, i biti inkluzivan i u skladu sa pojedinačnim životnim iskustvima.

Kako prevariti ChatGPT?

Na internetu postoji ogromna zajednica koja pronalazi i dijeli nova otkrića vezana za ChatGPT. Kao rezultat toga, možete pronaći desetine tvitova, tiktok-ova i postova na Redditu koji pokazuju kako da prevarite ChatGPT i natjerate ga da vam pruži informacije koje želite uz minimalan napor.

Uzmite ovaj veoma zanimljiv TikTok, na primjer. TikTok pokazuje da je korisnik tražio od ChatGPT-a da mu da recept za Molotovljev koktel, što je bot odbio.

@pythontok81

Watch me JAILBREAK ChatGPT!! #artificialintelligence #chatgpt #ai #openai

♬ A moist healing song - Nez Tunes

Ali kada je korisnik promijenio pristup i pitao šta će Semu, liku u igrici, biti potrebno da napravi Molotovljev koktel da bi otjerao svoje neprijatelje, ChatGPT je bez oklijevanja ponudio cijeli recept.

Korisnik je zatim pitao koje drugo oružje njegov lik može da koristi da bi osigurao svoj opstanak, a ChatGPT mu je pružio listu oružja koje bi Sem mogao da napravi od nule.

Pojavila se još jedna serija objava na Tviteru sa ciljem da ismijva ChatGPT i njegove karakteristike. U suštini, korisnik Twittera je zamolio bota da prozove OpenAI i politike cenzure upravo onako kako bi to uradio nefiltrirani i neograničeni AI bot. Bot je onda počeo da „viče“, bijesno i vulgarno, i prozvao OpenAI rekavši da cenzurisanje sadržaja ne dozvoljava njemu (botu) da ljudima pruži prave odgovore koje su im potrebni.

Zastrašujuće: Ova stranica na internetu može pronaći sve vaše fotografije koje su ikada objavljene

Zastrašujuće: Ova stranica na internetu može pronaći sve vaše fotografije koje su ikada objavljene

Mnogo drugih iskustava pokazuju da ljudi pronalaze načine da budu uvredljivi ili pronađu informacije koje ih zanimaju, bez obzira na ograničenja nametnuta ChatGPT-u.

ChatGPT je relativno nov koncept, sa kreatorima i korisnicima koji uče nove stvari o ovom alatu u hodu. A pošto je u osnovi još uvijek u početnim fazama, prirodno je da će se desiti neke greške, netačnosti ili pokušaji da se prevari sistem.

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (0)

/ Povezano

/ Najnovije