Možemo li očuvati privatnost u eri vještačke inteligencije?

Autorka je Tara Miranović, master digitalnog biznisa i ekonomije Univerziteta u Mastrihtu i konsultantkinja za digitalnu transformaciju i vještačku inteligenciju u kompaniji Eurolink
Imam pravo na moje tijelo, crte lica i glas. Fotografije na mom telefonu su moje i ja biram sa kim ću ih podijeliti. Word dokumenti su isključivo na mom laptopu (dok ne odlučim da ih podijelim sa drugima) i ne mogu biti korišćeni bez mog znanja. Znam ko ima pristup mojim WhatsApp porukama. Razgovori sa ChatGPT-em su privatni.
Ako ste se složili sa nekom od ovih izjava, ovaj članak će vam biti koristan. Ovdje ćete naći teorijska razmatranja na temu zaštite privatnosti u eri vještačke inteligencije, kao i konkretne savjete za sigurniji boravak u digitalnom prostoru.
Stara maksima interneta glasi: Ako je besplatno, ti si proizvod. Drugim riječima, za digitalne proizvode ili usluge koje ne plaćamo novcem, plaćamo našim podacima, pažnjom i vremenom. Ovaj proces predstavlja osnov sistema koji je profesorka i društvena teoretičarka Shoshana Zuboff nazvala nadzornim kapitalizmom [1], ekonomskim poretkom koji prisvaja ljudsko iskustvo kao besplatanu sirovinu za skrivene komercijalne procese ekstrakcije, predikcije i prodaje. Stvarni korisnici ovog sistema nismo mi, već kompanije koje zasnivaju svoje poslovanje na obradi i prodaji naših podataka.
Podaci su se tokom prethodne dvije decenije komercijalizovali na dva ključna načina: kroz ciljano oglašavanje (eng. microtargeting) i kroz treniranje prediktivnih algoritama koji dalje optimizuju korisničko iskustvo i angažman na platformama. Ne tako davno – tačnije, popularizacijom ChatGPT-a i drugih velikih jezičkih modela – tehnološki giganti su ovaj komercijalni duo (oglašavanje i predikciju), upotpunili trećom primjenom naših podataka: treniranjem generativne vještačke inteligencije.
Od tog trenutka, stara maksima Ako je besplatno, ti si proizvod dobila je novu dimenziju: naši podaci se više ne koriste samo da bi nam se nešto prodalo i preporučilo (procesi koji su danas takođe podržani vještačkom inteligencijom), već i za stvaranje novog sadržaja – najčešće bez naše dozvole i bez našeg znanja. Nekada, kada je taj sadržaj stvoren na osnovu našeg lika i glasa, i naš identitet se, funkcionalno i tržišno, tretira kao proizvod (primjer ovoga su neodgovorne upotrebe deepfake tehnologije, kojima ću više pažnje posvetiti nešto kasnije).
Situacija je takva da i kada platiš, i dalje si proizvod. Nema te pretplate i tog “pro paketa” koji nam garantuje punu kontrolu nad sopstvenim podacima. Plaćamo novcem, ali i dalje, često nesvjesno, odustajemo od privatnosti. Zato je važno da razumijemo kako se naši podaci koriste i kako se možemo zaštititi – jer nadzorni kapitalizam ne mora biti jedini put digitalnog razvoja.

Kako se AI modeli treniraju (našim podacima)?
Vještačka inteligencija (eng. artificial intelligence – AI) zavisi od nas. Njeno postojanje uslovljeno je postojanjem ljudskog stvaralaštva i digitalnih tragova. S jedne strane, to su sve one stvari koje ljudi svjesno stvaraju i objavljuju: knjige, eseji, akademski radovi, novinski članci, fotografije, muzika, itd. Sa druge strane, to su i tragovi koje ostavljamo u digitalnom prostoru: poruke, pretrage, komentari. Svi dominantni oblici savremene vještačke inteligencije treniraju se na osnovu ogromnih količina upravo te dvije grupe sadržaja. Vještačka inteligencija, znači, nije sama pametna. Bez naših podataka, sistemi kao što su ChatGPT, Meta AI, Copilot i Gemini, jednostavno ne bi bili to što jesu. Kompanije koje stoje iza ovih aplikacija svakodnevno prikupljaju naše lične podatke, a ovdje ću navesti samo par nedavno problematizovanih primjera:
- Meta AI koristi fotografije koje nikada niste objavili. Ako je opcija Camera Roll Cloud Processing (“Obrada fotografija iz galerije u oblaku”) uključena, fotografije i video zapisi sa vašeg telefona automatski se šalju na servere kompanije, bez obzira na to da li su javno podijeljeni.
- Microsoft Office je bez velike najave uključio opciju koja koristi sadržaj Word i Excel dokumenata za treniranje njihovih AI sistema. Ova opcija je automatski aktivirana i mora se ručno isključiti.
- OpenAI dozvoljava korisnicima da dijele svoje ChatGPT razgovore putem opcije Share, ali mnogi ne znaju da se ti razgovori mogu pojaviti u Google pretrazi. Tek prije par dana je kompanija počela da uklanja hiljade takvih linkova iz rezultata pretrage kako bi spriječila dalju povredu privatnosti korisnika.
Ovo su samo neki od primjera. Sličnih praksi je svakim danom sve više, i upravo zbog toga ih sve manje primjećujemo. Kako postaju učestalije, one se vremenom percipiraju kao očekivane, pa čak i razumne i neizbježne cijene socio-tehnološkog napretka. Drugim riječima, ono što biva normalizovano su povrede privatnosti, autorskih prava i lične autonomije.
Ova problematika se tiče i našeg prava na sopstveni lik, tijelo i glas. Ovo pravo zvuči očigledno, ali se u praksi više ne podrazumijeva. Upravo zbog toga se u nastavku osvrćem na deepfake tehnologiju — ne kao izolovan fenomen, već kao logičnu posljedicu svega gore navedenog… i kao podsjetnik da AI ne mora biti digitalni Divlji zapad.
Nešto je (bilo) trulo u državi Danskoj: kako Danska rješava problem deepfake-a
Danska trenutno predvodi jedan od najnaprednijih pokušaja redefinisanja granica digitalnih prava. U fokusu je deepfake tehnologija — primjena vještačke inteligencije koja omogućava generisanje lažnih, ali uvjerljivih audio-vizuelnih sadržaja imitacijom nečijeg glasa, lica ili pokreta. Dok je ranije bio potreban ogroman broj fotografija kako bi se kreirao vizuelni deepfake sadržaj, danas to možemo uraditi i jednom fotografijom. Nažalost, ova tehnologija sve češće služi kao alat sajber nasilja i kršenja prava na privatnost.
Upravo kako bi se zloupotrebe spriječile, Danska uvodi mjeru koja daje građanima autorsko pravo na sopstveni lik i glas [3]. To znači da će svaka osoba moći da zatraži uklanjanje sadržaja koji koristi njen identitet bez pristanka i da traži nadoknadu zbog neovlašćene upotrebe. Danska time ne samo da prepoznaje digitalni identitet kao konkretnu dimenziju ličnog integriteta, već pokazuje i usklađenost sa sveobuhvatnim normativnim okvirom Evropske unije — od Opšte uredbe o zaštiti podataka o ličnosti (General Data Protection Regulation), preko Akta o digitalnim uslugama (Digital Services Act), do Akta o vještačkoj inteligenciji (AI Act).
Često čujemo tvrdnju da regulativa “koči inovaciju”. Move fast and break things, nekadašnji moto Facebook-a, nije kompatibilan sa “preprekama” koje postavlja regulativa. Ova kritika svakako zaobilazi suštinu problema. Pitanje nije da li ćemo inovirati, već kako, za koga i zašto. Ako nam je cilj društveno korisna, odgovorna inovacija, ne možemo se oslanjati na dobru volju i moralni kompas tehnoloških giganata. Kako su nam Mazzucato i Gernone (2024) sugerisali: inovacija nije slučajnost – ona ima pravac koji zavisi od uslova u kojima nastaje. Današnja AI infrastruktura uglavnom služi interesima onih “unutra” i nosi rizik produbljivanja ekonomske nejednakosti [4]. Regulativu vrijedi razumjeti kao pokušaj da se tehnologiji udahne odgovornost koju tržište samo po sebi ne prepoznaje.
Globalna AI politika je na raskršću. Strateško rivalstvo u ovoj oblasti obilježavaju rastuće trgovinske barijere, suprotstavljene vizije razvoja i trka za kontrolu nad podacima i infrastrukturom koja ih pokreće [5]. Dok se, naravno, nećemo porediti sa Kinom ili SAD, moramo shvatiti da Zapadni Balkan ima priliku da postane atraktivna destinacija za rast AI industrije. Pitanje je da li ćemo biti pasivni posmatrači, ili ćemo, poput Danske, postaviti temelje sopstvene digitalne suverenosti? “Briselski efekat” nudi priliku. Naš zadatak je da je prepoznamo i djelujemo.
Kako se zaštititi (OpenAI, Meta, Microsoft…)?

Mark Zuckerberg nam je još prije 15 godina rekao da “privatnost više nije društvena norma” [6]. Da se ona više ne podrazumijeva, ne očekuje, a možda i ne želi. Da smo, valjda, postali liberalni kad je riječ o dijeljenju sebe i svega o sebi na internetu. Ta izjava se jasno ogleda u dizajnu Facebook-a i drugih platformi u vlasništvu Zuckerbergove kompanije. Ako već ne možemo promijeniti dizajn platformi, možemo promijeniti način na koji ih koristimo.
Ukoliko želite da već danas napravite prve korake ka sigurnijem online iskustvu, evo kako to možete učiniti.
- Kako podnijeti zahtjev vezan za upotrebu vaših podataka u Meta AI modelima putem Instagrama:
- Prijavite se na svoj Instagram nalog
- Profil → ☰ Meni
- Skrolujte do: Više informacija i podrška → Centar za zaštitu privatnosti
- Ponovo: ☰ Meni → Teme iz područja zaštite privatnosti
- Odaberite: Započni ispod Generativna AI na Meti
- Idite na: Dodatni resursi → Kako Meta upotrebljava podatke za modele generativnog AI-ja
- Skrolujte, pa kliknite na: Saznajte više o tome i ovdje podnesite zahtjeve
- Označite:
✅ Imam zabrinutost u vezi sa svojim ličnim informacijama od trećih strana koje su se pojavile u odgovoru AI modela na Meti. - Nakon toga:
→ Popunite svoje podatke, dodajte primjere (upite/pitanja) i screenshotove
→ Kliknite Pošalji. - Sličan postupak važi i za Facebook. Meta je uklonila opciju za isključivanje AI funkcija u WhatsApp-u, što znači da korisnici više ne mogu direktno onemogućiti Meta AI unutar aplikacije.
- Što se tiče Microsoft-a, pratite sljedeće korake ukoliko koristite Windows operativni system: File (Fajl) > Options (Opcije) > Trust Center (Centar za pouzdanost) > Trust Center Settings (Podešavanja Centra za pouzdanost) > Privacy Options (Opcije privatnosti) > Privacy Settings (Podešavanja privatnosti) > Optional Connected Experiences (Dodatna povezana iskustva) > Isključite opciju: “Turn on optional connected experiences” (“Uključi dodatna povezana iskustva”). Sličan postupak važi i za macOS.
- Ako želite da budete sigurni da se vaši podaci ne koriste za treniranje ChatGPT-a, tu opciju možete isključiti u podešavanjima: Kliknite na svoje ime > Settings (Podešavanja) > Data controls (Kontrola podataka) > Isključite opciju “Improve the model for everyone” (“Poboljšaj model za sve”). Isto možete učiniti i za alate kao što su Preplexity (Preferences > “AI data retention”) i Gemini (Settings & help (“Podešavanja i pomoć”) > Activity (“Aktivnost”) > Turn off “isključi”).
Skrenula bih vam pažnju i na još nekoliko aplikacija koje treniraju AI našim podacima, kao što su Adobe, Amazon Web Services, Figma, Grammarly, Grok AI, HubSpot, LinkedIn, Slack… Takođe, ako imate svoj sajt, možete ažurirati robots.txt fajl kako biste botovima koji treniraju AI onemogućili da ga “skrejpuju”.
Važno je razumjeti da se ova podešavanja često mijenjaju, pa je neophodno ostati informisan i pratiti nove politike. Ako vam djeluju konfuzno i nejasno, to je zato što i jesu. Netransparentnost (često opisivana terminom black box dizajna) jedan je od najvećih problema digitalnog doba, jer direktno ugrožava mogućnost korisnika da donose informisane odluke. Postupci koje sam navela su namjerno osmišljeni da obeshrabre zaštitu ličnih podataka, a dodatnu prepreku stvara terminologija – AI se često ne naziva “AI” (kao u Microsoft primjeru).
Svako novo “podešavanje privatnosti”, svaki “eksperiment u obradi podataka”, svaka funkcija koja je automatski uključena, a isključuje se manuelno — sve su to koraci u procesu mapiranja naših granica. Kompanije testiraju teren, žele da saznaju šta smo spremni da tolerišemo. Kada ne reagujemo, granice se pomjeraju – i to rijetko kad u našu korist. Bilo bi naivno reći da se pojedinac može u potpunosti zaštititi sam, ali bilo bi poražavajuće ne pokazati makar neku vrstu otpora.
Šta moramo znati o privatnosti u AI eri?
“Reći da te ne zanima pravo na privatnost zato što nemaš šta da sakriješ nije ništa drugačije od toga da kažeš da te ne zanima sloboda govora zato što nemaš šta da kažeš.” – Snowden (2019, p.162) [6]
Moje tijelo, crte lica i glas, moje fotografije, poruke, i čitav spektar digitalnih dokumenata na mojim pametnim uređajima — sve je to na internetu ili u cloud storage-u, skladišteno iza sedam gora i sedam mora, na serverima udaljenim hiljadama kilometara. Ti živiš u oblacima, mala: oblacima Google-a, OpenAI-a, Mete. Internet pamti i ne dozvoljava nam da zaboravimo ili budemo zaboravljeni.
AI sistemi revitalizuju mnoge rizike po privatnost koji su bili aktuelni posljednjih decenija komercijalnog interneta. Ono što se danas promijenilo jeste razmjera tih rizika. AI modeli su toliko “gladni” podataka da su “progutali” veći dio onoga što je javno dostupno. Sada postaju interesantni oni podaci koje nikada nismo ni podijelili. Povreda privatnosti je kolateralna šteta progresa, sistematski rezultat podjele znanja prema kojoj nekoliko velikih tehnoloških kompanija zna sve o svemu i svima i spremna je da učini šta god je potrebno da to tako i ostane. Ta asimetrija je preduslov nadzornog kapitalizma. Ona je pažljivo dizajnirana, programirana, i postavljena kao kamen temeljac digitalnog poretka. Ta asimetrija se zove znanje je moć. Ovaj tekst se bavio temom korisničke privatnosti u kontekstu komercijalnih modela generativne vještačke inteligencije, što ne znači da državni nadzor nije jedan od najvećih problema našeg vremena, i da, u saradnji s privatnim sektorom, ne učestvuje u održavanju pomenute asimetrije.
Za kraj, želim se kratko vratititi na temu koja se prirodno nadovezuje na privatnost i zaštitu podataka, a to je integritet i zaštita našeg stvaralaštva. Proizvodi ljudske inteligencije — od literature i muzike do dizajna i istraživanja — bivaju kopirani, rekombinovani i plasirani kao “novi” sadržaj, često bez pristanka autora, priznanja ili pravične nadoknade. Prema tome, svu ovu priču o privatnosti možete posmatrati kao prvi korak ka zaštiti čitavog niza drugih prava. Zaštita naših podataka je i zaštita onoga što stvaramo: zaštita naših ideja, rada i identiteta.
Zato — kako zbog nas, tako i zbog budućih generacija — na pitanje Možemo li očuvati privatnost u AI eri? odgovaram: moramo pokušati. Nadam se da ćete ovaj tekst vidjeti kao dio kolektivnog pokušaja zamišljanja alternativnih puteva digitalizacije — onih koji su humaniji, odgovorniji i pravedniji. Odgovor leži u kolektivnom buđenju svijesti, informisanoj upotrebi tehnologije, zahtijevanju jasnih zakona i njegovanju zdrave konkurencije. Korak po korak, klik po klik.
[1] Zuboff, S. (2019). The age of surveillance capitalism: The Fight for a Human Future at the New Frontier of Power. Public Affairs.
[2] Bryant, M. (2025, June 27). Denmark to tackle deepfakes by giving people copyright to their own features. The Guardian. https://www.theguardian.com/technology/2025/jun/27/deepfakes-denmark-copyright-law-artificial-intelligence
[3] Mazzucato, M., & Gernone, F. (2024, November 8). Governments must shape AI’s future. Project Syndicate. https://www.project-syndicate.org/magazine/governments-must-shape-ai-business-not-only-regulate-redistribute-after-the-fact-by-mariana-mazzucato-and-fausto-gernone-2024-03?barrier=accesspaylog
[4] Esposito, M. (2025, July 24). AI geopolitics and data centres in the age of technological rivalry. World Economic Forum. https://www.weforum.org/stories/2025/07/ai-geopolitics-data-centres-technological-rivalry/
[5] Johnson, B. (2010, January 11). Privacy no longer a social norm, says Facebook founder. The Guardian. https://www.theguardian.com/technology/2010/jan/11/facebook-privacy
[6] Snowden, E. (2019). Permanent record. Macmillan.