Veliki jezikovni modeli ali orodja umetne inteligence so postali skoraj nepogrešljiv del življenja. Tudi če jih ne uporabljate aktivno vsak dan, obstaja velika verjetnost, da uporabljate kakšno storitev, ki v ozadju uporablja model umetne inteligence, kot so ChatGPT, Gemini, Perplexity in podobne.
Čeprav se mnogi zanašajo na te storitve pri vsakodnevnih poslovnih (in zasebnih) obveznostih, se tudi ne zavedajo, da vsaka njihova uporaba teh storitev predstavlja določeno varnostno grožnjo.

Ljudje namreč v želji, da bi delo opravili čim hitreje, pogosto razkrijejo občutljive in zasebne podatke klepetalnim robotom in drugim modelom umetne inteligence, ki jih ne bi smeli razkriti drugim ljudem. Ampak klepetalni roboti niso ljudje, kajne?
Pravzaprav bi jih v tem kontekstu morali obravnavati kot osebe, saj tako kot ne bi razkrili informacij o sebi ali podjetju, v katerem delate, komurkoli na ulici, jih ne bi smeli zlahka vnašati v klepetalne robote z umetno inteligenco.
Čeprav podjetja, ki razvijajo te modele, najpogosteje ne uporabljajo podatkov iz pogovorov uporabnikov z modelom (čeprav na primer DeepSeek na ta način trenira svoj model umetne inteligence), to ne pomeni, da ti podatki ne ostanejo zabeleženi v vašem uporabniškem računu. Vse, kar je potrebno, je, da se nekdo usede za vaš računalnik, odpre vaš najljubši model umetne inteligence in prebere vašo zgodovino pogovorov ter s tem občutljive podatke.

Katerih občutljivih informacij ne smete deliti?
1) Osebni podatki
Ne glede na to, koliko zaupate modelom umetne inteligence, zaradi lastne varnosti v pogovoru s katerim koli klepetalnim robotom z umetno inteligenco nikoli ne smete deliti svojega polnega imena, naslova, številke socialnega zavarovanja, številke osebne izkaznice, številke potnega lista in podobnih identifikacijskih dokumentov. Enako velja za fotografije takšnih identifikacijskih dokumentov.
Če za ustvarjanje življenjepisa uporabljate chatbot, ga prosite, naj vam oblikuje obrazec, ki ga lahko nato izpolnite v računalniku, namesto da vnašate osebne podatke v model umetne inteligence.
2) Finančne informacije
Tako kot nenehno opozarjamo na deljenje finančnih informacij, kot so številke kreditnih ali debetnih kartic, podatki o bančnih računih ali gesla za spletno ali mobilno bančništvo, velja isto pravilo tudi za deljenje teh podatkov z modeli umetne inteligence.
Morda bi radi dobili nasvet modela umetne inteligence o posojilu, ki bi vam najbolj ustrezalo, ali o tem, kako prihraniti pri davkih, vendar v tem primeru raje uporabite "izmišljen scenarij" kot pa svoje osebne podatke.

3) Gesla
Ali sploh moramo razlagati? Deljenje gesel za dostop do uporabniških računov ali računov znotraj vašega podjetja je izjemno neodgovorno. Tako kot ne bi dali ključev in naslova stanovanja neznancu na ulici, ne razkrivajte svojih gesel in uporabniških imen modelu umetne inteligence.

4) Občutljive ali zaupne informacije
Z modelom umetne inteligence ne smete ravnati kot s spovednikom ali najboljšim prijateljem in mu razkriti občutljivih ali tajnih informacij. Zasebni podatki, kot so kdo koga vara in s kom ali kaj je sodelavec počel v službi, niso informacije, ki bi jih model umetne inteligence moral poznati. Enako velja za zasebne podatke o zdravju nekoga ali družinskih članov.
5) Informacije o podjetju, za katerega delate ali s katerim sodelujete
Morda vas je premamila skušnjava, da bi ChatGPT-ju posredovali informacije in ga prosili, naj sestavi pogodbo med obema podjetjema, vendar to ni pametna poteza. Enako velja za vse dokumente, ki vsebujejo zaupne informacije (informacije o prototipih, zaščitenih patentih itd.), pa tudi informacije o sestankih, poslovnih načrtih in financah podjetja. Prav zato nekatera podjetja blokirajo dostop do ChatGPT in drugih modelov umetne inteligence na njihovih uradnih računalnikih.

6) Eksplicitna vsebina
Tudi če bi ChatGPT v šali vprašali za informacije o tem, "kako se nekoga trajno znebiti", bi vam to lahko povzročilo težave. Ne samo, da ChatGPT ne bo odgovoril na takšno vprašanje, ampak nekateri modeli umetne inteligence takšna sumljiva vprašanja označijo in jih prijavijo policiji. Torej, če vas mika, da bi ga vprašali za nasvet, se tega raje vzdržite.
7) Zdravstvene informacije
Ste že slišali za izraz "dr. Google"? No, mnogi uporabniki so Google zamenjali s ChatGPT in ga obravnavajo kot osebnega zdravnika. Nič ni narobe, če ChatGPT prosite za pojasnilo glede težave, vendar se v poizvedbi izogibajte specifičnim identifikacijskim informacijam. Posplošite svoje vprašanje. Na primer, "priporoči mi vaje za moškega v tridesetih letih, ki ima težave z išiasom."

Če niste prepričani, ali smete deliti nekatere informacije ali ne, sledite temu preprostemu navodilu – če ne želite, da kdo ponovi, vidi ali objavi vaše poizvedbe nekje na internetu, oglasni deski ali v medijih, jih verjetno ne želite zastaviti modelu umetne inteligence.

Vir: zimo.dnevnik.hr
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.
PRAVILA ZA OBJAVO KOMENTARJEV