AI je iz temelja promijenio i način postupanja s privatnim podacima
Uspon generativne umjetne inteligencije i velikih jezičnih modela temeljno je promijenio, među ostalim, i način na koji pojedinci i organizacije postupaju sa svojom privatnošću podataka na mreži

Iako ti alati mogu povećati produktivnost, većina korisnika nije svjesna složenih izazova zaštite privatnosti podataka koji stoje iza tih modela. Kako se ti sofisticirani modeli sve više integriraju u svakodnevne tijekove rada - od stvaranja sadržaja do generiranja koda - potencijal za neovlašteno dijeljenje podataka, zlouporabu i izlaganje osobnih podataka porastao je brže nego što nadzornici privatnosti ili procjene mogu pratiti.
Održavanje svijesti o promjenjivim rizicima privatnosti i praksama rukovanja podacima jednostavno je postalo nepraktično za prosječnog korisnika. Procjene privatnosti LLM-ova i procesa umjetne inteligencije generacije prikupljaju podatke o obuci i osjetljive informacije koje se otkrivaju kroz stalne interakcije korisnika s njima.
Takva brza evolucija izloženosti podataka zahtijeva bolje okvire za evaluaciju koji mogu pružiti jednostavne odgovore, jasnoću i praktične uvide kako bi se odgovorilo na jednostavno pitanje - koji su LLM-ovi i Gen AI platforme najbolji za privatnost podataka?
Poredak privatnosti podataka LLM-a
Kako bi analizirao načine na koji se veliki jezični modeli odnose s korisničkim podacima servis za uklanjanje osobnih podataka na internetu Incogni je proučio najpopularnije LLM-ove (large language model), uključujući OpenAI-jev ChatGPT, Meta AI, Googleov Gemini, Microsoftov Copilot, xAI-jev Grok, Anthropicov Claude, Inflection AI-jev Pi AI i kineski DeepSeek. Za to je razvio skup od 11 kriterija za procjenu rizika za privatnost podataka povezanih s naprednim programima strojnog učenja poput ChatGPT-a i Meta AI-a. Rezultati su sintetizirani u sveobuhvatnu rang-listu privatnosti, uključujući ukupnu rang-listu.
Svaka je platforma zatim ocjenjivana od nule, koja je bila najprihvatljivija za privatnost, do jedan, koji je bio najmanje prilagođen na tom popisu kriterija. Istraživanje je imalo za cilj utvrditi kako se modeli obučavaju, koja je njihova transparentnost te kako se podaci prikupljaju i dijele.
Među kriterijima, studija je proučavala skup podataka koje koriste modeli, mogu li se korisnički generirani upiti koristiti za obuku i koji se podaci, ako ih ima, mogu dijeliti s trećim stranama.
Svi ispitivani modeli prikupljaju podatke korisnika iz „ javno dostupnih izvora “, što može uključivati osobne podatke.
Što izdvaja Mistral?
Nova analiza Icognija je pokazala da je Le Chat francuske tvrtke Mistral AI platforma koja najmanje narušava privatnost jer prikuplja „ograničene“ osobne podatke i dobro se nosi s problemima privatnosti specifičnim za umjetnu inteligenciju.
Le Chat, ChatGPT i Grok su platforme koje su zauzele najviše mjesto kada je u pitanju transparentnost u načinu na koji koriste i prikupljaju podatke te koliko je lako isključiti se iz korištenja osobnih podataka za treniranje temeljnih modela.
Le Chat je također jedan od rijetkih chatbotova s umjetnom inteligencijom u studiji koji bi svojim pružateljima usluga pružao samo korisnički generirane upite, zajedno s Pi AI.
Platforme koje su razvile najveće tehnološke tvrtke pokazale su se najinvazivnijima u pogledu privatnosti, pri čemu je Meta AI (Meta) bila najgora, a slijede Gemini (Google) i Copilot (Microsoft).
Unatoč tomu, OpenAI-jev ChatGPT zauzima drugo mjesto u ukupnom poretku jer tvrtka ima „jasnu“ politiku privatnosti koja korisnicima objašnjava kamo točno idu njihovi podaci. ChatGPT se pokazao najtransparentnijim u vezi s time hoće li se upiti koristiti za obuku modela i imao je jasnu politiku privatnosti.
Međutim, istraživači su primijetili neke zabrinutosti oko načina na koji se modeli obučavaju i kako korisnički podaci „interagiraju s ponudama platforme“.
xAI, tvrtka kojom upravlja milijarder Elon Musk, a koja upravlja Grokom, zauzela je treće mjesto zbog zabrinutosti oko transparentnosti i količine prikupljenih podataka.
U međuvremenu, Anthropicov Claudeov model pokazao se slično xAI-u, ali je imao više nedoumica oko načina na koji modeli komuniciraju s korisničkim podacima, navodi se u studiji.
Na dnu ljestvice je Meta AI, koji je najviše narušavao privatnost, a slijede ga Gemini i Copilot.
Čini se da mnoge tvrtke na dnu ljestvice (Gemini, DeepSeek, Pi AI i Meta AI) ne dopuštaju korisnicima da odustanu od korištenja generiranih upita za daljnje treniranje svojih modela, navodi se u analizi.