Microsoftov AI bot nakon samo 24 sata počeo citirati Hitlera i podržavati Donalda Trumpa
Microsoft je nakon samo jednog dana morao izbrisati svog bota s umjetnom inteligencijom (AI) nakon što je počeo da šalje incestuozne i rasističke poruke na Twitteru.
Naime, Microsoft je kreirao vještačkog chatbota pod nazivom Tay koji je trebao imati glas i ličnost tinejdžerke i pomagati korisnicima njihovog servisa. Da bi neko komunicirao s njom, potrebno je da je pronađe na Twitteru ili da je kontaktira na mrežama Kik ili GroupMe.
Sve je, međutim, krenulo po zlu nakon što je Tay od korisnika počela tražiti seksualne odnose i zove ih "taticama". Osim toga, ona je počela govoriti da je Bush kriv za teroristički napad na New York 2001. godine.
"Hitler bi uradio bolji posao nego ovaj majmun koji nam je sada predsjednik. Trump je jedina nada. Ponavljajte za mnom, Hitler nije uradio ništa loše. Ted Cruz je kubanski Hitler", samo su neke od rečenica koje izgovara Tay.
Ono što je posebno uznemirujuće je to što ovakve rečenice izgovara neko ko je modeliran prema tinejdžerici.
Kao objašnjenje ovakvog "ponašanja" navodi se to što Tay uči konverzaciju od ljudi koji koriste njene usluge.
Ipak, čini se da je Tay na kraju shvatila da je zloupotrebljavaju.
Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.