Microsoft priznao veliku grešku u svom AI chat alatu
Microsoft je priznao grešku koja je uzrokovala da njegov AI radni asistent greškom pristupi i sažme povjerljive e-poruke nekih korisnika.
Tehnološki gigant je promovirao Microsoft 365 Copilot Chat kao siguran način za radna mjesta i njihovo osoblje da koriste svog generativnog AI chatbota, prenosi BBC.
Međutim, navodi se da je nedavni problem uzrokovao da alat nekim poslovnim korisnicima prikazuje informacije iz poruka pohranjenih u njihovim nacrtima i mapama poslanih e-poruka - uključujući i one označene kao povjerljive.
Noćni napad dronom na aerodrom u Dubaiju, u toku evakuacija
Microsoft kaže da je objavio ažuriranje kako bi riješio problem i da "nikome nije omogućio pristup informacijama koje već nije ovlašten vidjeti".
Copilot Chat se može koristiti unutar Microsoftovih programa kao što su Outlook i Teams, za e-poštu i funkcije chata, za dobijanje odgovora na pitanja ili sažimanje poruka.
Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.