U eri digitalne komunikacije i brzog razvoja veštačke inteligencije, alati poput ChatGPT-a postali su deo svakodnevice miliona korisnika širom sveta. Koristimo ih za traženje informacija, pisanje mejlova, pa čak i za donošenje važnih odluka. Međutim, koliko god veštačka inteligencija bila korisna, ne smemo zaboraviti da njeno korišćenje nosi i određene rizike – naročito kada je reč o zaštiti ličnih i poverljivih podataka.Čak i ako ih ne koristite aktivno svakog dana, velike su šanse da se oslanjate na neki servis koji u pozadini koristi AI model poput ChatGPT-ja, Gemini-ja, Perplexity-ja i sličnih, piše N1.rs.Iako se mnogi oslanjaju na ove servise kako bi im pomogli u obavezama, bilo poslovnim ili privatnim, često nisu svesni da svako korišćenje ovakvih alata može predstavljati određeni bezbednosni rizik.Naime, u želji da što brže završe neki zadatak, ljudi često AI chatbot-ovima otkrivaju osetljive i lične informacije koje ne bi trebalo deliti sa drugim osobama. Ali chatbot-ovi nisu osobe, zar ne?Zapravo, u ovom kontekstu trebalo bi ih posmatrati kao osobe – jer baš kao što ne biste poverljive podatke o sebi ili kompaniji u kojoj radite rekli bilo kome na ulici, ne bi trebalo ni da ih upisujete u AI modele, prenosi ZIMO.hr.Iako kompanije koje razvijaju ove modele uglavnom ne koriste korisničke razgovore za dodatno treniranje (iako, na primer, DeepSeek upravo to radi), to ne znači da podaci koje ste uneli nisu sačuvani u vašem korisničkom nalogu. Dovoljno je da neko sedne za vaš računar, otvori omiljeni AI model i pregleda istoriju razgovora – i tako dođe do osetljivih informacija.Koje osetljive podatke ne treba da delite sa ChatGPT-jem?Lične podatkeBez obzira na nivo poverenja koji imate u AI modele, nikada ne treba da delite svoje puno ime i prezime, adresu, JMBG, broj lične karte, pasoša i slične podatke. Isto važi i za fotografije identifikacionih dokumenata.Ako koristite chatbot za izradu CV-ja, bolje je da tražite šablon koji ćete popuniti sami na svom računaru, nego da unosite lične podatke direktno.Finansijske informacijeKao što nikada ne biste delili broj kreditne ili debitne kartice, podatke o bankovnom računu ili šifre za elektronsko bankarstvo, isto tako te informacije ne treba deliti ni sa AI modelima.Ako tražite savet o kreditu ili porezima, koristite „izmišljeni scenario“, a ne stvarne podatke.LozinkeOvo ne treba ni naglašavati – deljenje lozinki za korisničke naloge ili poslovne sisteme je krajnje neodgovorno. Kao što ne biste dali ključeve od stana nepoznatoj osobi, nemojte ni AI modelima otkrivati pristupne podatke.Osetljive ili poverljive informacijeAI modeli nisu vaš ispovednik niti najbolji prijatelj – nemojte im otkrivati lične ili tuđe tajne, podatke o zdravlju, porodične informacije ili tračeve s posla. Takvi podaci treba da ostanu privatni.Informacije o kompaniji u kojoj radite ili sarađujeteMožda vam je primamljivo da ChatGPT-u poverite zadatak pisanja ugovora, ali to nije dobra ideja. Isto važi i za dokumenta sa poverljivim informacijama – poput prototipova, patenata, sastanaka, poslovnih planova i finansija. Zato mnoge kompanije zabranjuju korišćenje AI alata na službenim uređajima.Eksplicitan sadržajČak i ako se šalite, pitanja poput „kako se trajno rešiti nekoga“ mogu biti označena kao sumnjiva i prijavljena policiji. ChatGPT na takve upite ne odgovara, ali drugi modeli mogu pratiti i prosleđivati takve informacije. Bolje se suzdržite.Medicinske informacijeIako ste možda zamenili „doktora Gugla“ sa ChatGPT-jem, ne delite konkretne podatke iz zdravstvenih izveštaja. Umesto toga, postavite opšti upit – na primer: „Preporuči mi vežbe za muškarca u tridesetim godinama koji ima išijas.“Ako niste sigurni da li bi trebalo nešto da podelite, zapamtite ovo jednostavno pravilo – ako ne želite da vaš upit neko pročita javno na internetu, oglasnoj tabli ili u medijima, verovatno ne želite da ga pročita ni AI model.Pratite nas na našoj Facebook i Instagram stranici, ali i na X nalogu. Pretplatite se na PDF izdanje lista Danas.