U trenutku kada veštačka inteligencija postaje sastavni deo svakodnevice – bilo da je reč o pisanju mejlova, pripremi izveštaja ili poslovnim analizama – stručnjaci sve glasnije upozoravaju da praktičnost ne sme biti ispred bezbednosti.
Veliki jezički modeli kao što su ChatGPT, Gemini ili Perplexity AI већ су duboko ušli u privatnu i profesionalnu sferu miliona ljudi. Iako značajno ubrzavaju rad i olakšavaju svakodnevne zadatke, istovremeno pokreću ozbiljna pitanja o zaštiti podataka.
Stručnjaci ističu da korisnici, u želji da što pre dođu do rešenja, često nesvesno dele osetljive informacije sa AI sistemima. Čak i oni koji ne koriste direktno chatbotove, neretko se oslanjaju na aplikacije i servise koji u pozadini imaju integrisanu veštačku inteligenciju. Upravo tu nastaje potencijalni problem.
Onog trenutka kada unesemo podatke koji bi trebalo da ostanu privatni – bilo lični ili poslovni – prelazimo granicu bezbednog korišćenja. Iako AI nije osoba, sa stanovišta zaštite privatnosti treba je posmatrati kao nepoznati entitet. Jednostavno pravilo glasi: ako nešto ne biste rekli potpunom strancu, nemojte unositi ni u AI alat.
Koristite hipotetičke podatke
Lične informacije poput imena i prezimena, adrese, JMBG-a, broja lične karte ili pasoša, kao i fotografije dokumenata, nikako ne bi smeli da se unose u AI sisteme. Ako, na primer, koristite chatbot za pisanje biografije, bolje je zatražiti generički primer ili šablon, pa ga naknadno sami popuniti stvarnim podacima.
Finansijske informacije su podjednako rizične. Brojevi kreditnih kartica, računa, pristupni podaci za elektronsko bankarstvo ili detalji o imovini ne bi trebalo da završe u AI modelima. Kada tražite savet o kreditu, investicijama ili porezima, koristite izmišljene primere umesto stvarnih brojki.
Posebno je važno nikada ne deliti korisnička imena i lozinke. Kao što nikome ne biste predali ključeve od svog doma, tako ni AI sistemima ne treba davati pristupne podatke.
Oprez i u poslovnom okruženju
Osetljive teme poput zdravstvenih problema, porodičnih konflikata ili ličnih kriza nisu sadržaj za digitalne asistente. AI nije ni prijatelj ni poverenik.
U poslovnom kontekstu, korišćenje alata poput ChatGPT za izradu ugovora ili obradu internih dokumenata može delovati efikasno, ali nosi rizike. Podaci o patentima, prototipovima, finansijskim planovima ili strateškim odlukama trebalo bi da ostanu unutar kompanije. Zbog toga pojedine firme ograničavaju ili potpuno zabranjuju pristup AI aplikacijama na službenim uređajima.
Treba imati na umu i da neprimereni ili sumnjivi upiti – čak i ako su izrečeni u šali – mogu biti evidentirani i analizirani u skladu sa pravilima korišćenja platforme.
Sve više ljudi koristi veštačku inteligenciju kao zamenu za internet pretraživač, pa čak i kao neformalni izvor medicinskih saveta. U redu je postavljati opšta pitanja i tražiti objašnjenja pojmova, ali bez otkrivanja ličnih podataka. Umesto detaljnog iznošenja sopstvenog zdravstvenog stanja, bezbednije je postaviti uopšteno pitanje, poput: „Koje vežbe se preporučuju muškarcu u tridesetim godinama koji ima problem sa išijasom?“
Brzina i efikasnost jesu prednosti savremenih AI alata, ali odgovorno korišćenje ostaje ključ njihove bezbedne primene.
Komentari (0)