Važno upozorenje za sve koji koriste ChatGPT: Ovih 7 stvari nikad mu nemojte otkriti

2
Radiosarajevo.ba
Važno upozorenje za sve koji koriste ChatGPT: Ovih 7 stvari nikad mu nemojte otkriti
Foto: Pexels / Ilustracija / Dopisivanje

Veliki jezični modeli, odnosno alati s umjetnom inteligencijom, gotovo su postali neizostavan dio života. Čak i ako ih ne koristite aktivno svakog dana, velike su šanse da koristite neki servis koji u pozadini koristi model AI poput ChatGPT-ja, Geminija, Perplexityja i sličnih.

No, iako se mnogi oslanjaju na te servise kako bi im pomogli u svakodnevnim poslovnim (i privatnim) obavezama, isto tako nisu svjesni da svako njihovo korištenje tih servisa predstavlja određenu sigurnosnu prijetnju. Naime, ljudi u želji da što prije obave neki posao često chatbotovima i drugim AI modelima otkrivaju osjetljive i privatne informacije koje se ne bi trebale otkrivati drugim osobama. No, chatbotovi nisu osobe, zar ne?

Zapravo, u ovom kontekstu treba ih smatrati osobama, jer baš kao što ne biste neki podatak o sebi ili kompaniji u kojoj radite otkrili bilo kome na cesti, tako ga ne biste smjeli olako upisivati ni u chatbotove AI modela. Iako tvrtke koje razvijaju te modele najčešće ne koriste podatke iz razgovora korisnika s modelom (iako, primjerice, DeepSeek upravo tako trenira svoj AI model) za dodatno treniranje modela, to ne znači da ti podaci ne ostaju zapisani u vašem korisničkom računu. Dovoljno je da neko sjedne za vaš kompjuter i otvori vaš omiljeni AI model te tamo pročita historiju vaših razgovora, a time i osjetljive podatke.

Sud potvrdio optužnicu: Uzunović se tereti zbog davanja lažnog iskaza

Sud potvrdio optužnicu: Uzunović se tereti zbog davanja lažnog iskaza

Koje osjetljive podatke ne smijete dijeliti?

1) Lične podatke
Bez obzira na to koliko povjerenja imali u AI modele, zbog vlastite sigurnosti nikad ne biste trebali podijeliti u razgovoru s bilo kakvim AI chatbotom svoje puno ime i prezime, adresu, jedinstveni matični broj, broj lične karte, pasoša i sličnih identifikacijskih dokumenata. Isto se odnosi i na fotografije takvih identifikacijskih dokumenata. Ako koristite chatbot za stvaranje životopisa, radije ga zamolite da vam osmisli obrazac, koji vi potom možete popuniti na kompjuteru, nego da u AI model ubacujete lične podatke.

2) Financijske informacije
Baš kao što stručnjaci stalno upozoravaju na to da ne bi trebalo dijeliti finansijske podatke poput broja kreditne ili debitne kartice, podataka o bankovnom računu ili lozinke za pristup internetskom odnosno mobilnom bankarstvu, isto se pravilo odnosi i na dijeljenje tih podataka s AI modelima. Možda biste od AI modela željeli dobiti savjet o kreditu koji bi vam najbolje odgovarao ili kako uštedjeti na porezu, ali u tom slučaju radije koristiti "izmišljeni scenarij" nego lične podatke.

3) Lozinke
Moramo li uopće objašnjavati? Dijeljenje lozinki za pristup korisničkim računima ili računima unutar vaše kompanije iznimno je neodgovorno. Kao što ne biste strancu na ulici dali svoje ključeve i adresu stana, nemojte ni AI modelu otkrivati lozinke i korisnička imena.

4) Osjetljive ili tajne informacije
AI model ne biste smjeli tretirati kao ispovjednika ili najboljeg prijatelja i otkrivati mu osjetljive ili tajne informacije. Privatne podatke poput ko vara koga i s kim ili što je kolega na poslu napravio nisu informacije koje bi AI model trebao znati. Isto se odnosi i na privatne podatke o nečijem zdravlju ili članovima obitelji, piše Zimo.

ChatGPT nije ljekar

5) Informacije o kompaniji u kojoj radite ili s kojom sarađujete
Može biti primamljivo ubaciti podatke u ChatGPT i zatražiti od njega da sastavi ugovor, no to nije pametan potez. Isto se odnosi i na bilo kakve dokumente koji sadrže povjerljive informacije (informacije o prototipovima, zaštićenim patentima i slično), kao i informacije o sastancima, poslovnim planovima i finansijama kompanije. Upravo je to razlog zašto neke tvrtke blokiraju pristup ChatGPT-ju i ostalim AI modelima na službenim računarima.

6) Eksplicitni sadržaj
Čak i ako ste u šali od ChatGPT-a zatražili informaciju "kako se riješiti nekoga trajno", to bi vam moglo izazvati probleme. Ne samo da vam ChatGPT neće odgovoriti na takvo pitanje, nego neki AI modeli takva sumnjiva pitanja označavaju i prijavljuju policiji. Stoga, ako ste u napasti pitati ga za savjet, radije se suzdržite.

7) Medicinske informacije
Čuli ste za izraz "doktor Google"? E pa mnogi korisnici Google su zamijenili ChatGPT-om i tretiraju ga kao ličnog ljekara. Nema ništa loše da upitate ChatGPT za pojašnjenje nekog nalaza, ali izbjegavajte specifične identifikacijske informacije u upitu. Radije uopštite svoj upit. Primjerice, "preporuči mi vježbe za mušku osobu u 30-im godinama, koja ima problema s išijasom".

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (2)

/ Povezano

/ Najnovije