Microsoft priznao veliku grešku u svom AI chat alatu

0
Radiosarajevo.ba
Microsoft priznao veliku grešku u svom AI chat alatu
Foto: Pexels / Microsoft / Ilustracija

Microsoft je priznao grešku koja je uzrokovala da njegov AI radni asistent greškom pristupi i sažme povjerljive e-poruke nekih korisnika.

Tehnološki gigant je promovirao Microsoft 365 Copilot Chat kao siguran način za radna mjesta i njihovo osoblje da koriste svog generativnog AI chatbota, prenosi BBC.

Međutim, navodi se da je nedavni problem uzrokovao da alat nekim poslovnim korisnicima prikazuje informacije iz poruka pohranjenih u njihovim nacrtima i mapama poslanih e-poruka - uključujući i one označene kao povjerljive.

Požar u Sarajevu: Gori drugi sprat kuće, vatrogasci na terenu

Požar u Sarajevu: Gori drugi sprat kuće, vatrogasci na terenu

Microsoft kaže da je objavio ažuriranje kako bi riješio problem i da "nikome nije omogućio pristup informacijama koje već nije ovlašten vidjeti".

Copilot Chat se može koristiti unutar Microsoftovih programa kao što su Outlook i Teams, za e-poštu i funkcije chata, za dobijanje odgovora na pitanja ili sažimanje poruka.

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (0)

/ Povezano

/ Najnovije