ChatGPT se pretvorio u asistenta za špijuniranje društvenih mreža
Većina ljudi koristi ChatGPT kako bi dobili odgovor na jednostavna pitanja, uređivali mejlove ili za korisno (i beskorisno) programiranje. Međutim, kompanije koje se bave razvijanjem softvera za špijunažu trenutno istražuju mogućnosti kako ga iskoristiti i druge AI (Artificial intelligence) alatke u svrhe nadziranja ljudi na društvenim mrežama.
Na prezentaciji u Milipol konferenciji nacionalne bezbjednosti u Parizu, firma koja se bavi ovim onlajn nadziranjem Sošl links (Social Links), demonstrirala je kako ChatGPT obavlja “analizu sentimenta”, gdje AI ispituje raspoloženje korisnika društvene mreže ili ukazuje na česte teme neke grupe. Ovo može pomoći predvidjeti da li će neka onlajn aktivnost preći u fizičko nasilje i zahtijevati intervenciju policije.
Kompanija Sošl links, koju je osnovao ruski biznismen Andrej Kulikova 2017. godine, trenutno ima kancelarije u Nizozemskoj i Njujorku; prethodno, Meta je prepoznala ovu firmu kao špijunskog prikupljača podataka kasne 2022. godine, time uklonivši 3.700 Fejsbuk (Facebook) i Instagram naloga koje je navodno koristila za prikupljanje podataka na ovim društvenim mrežama.
Kompanija negira povezanost s ovim nalozima, te da ova tvrdnja Mete nije naudila njenom razvoju: izvršni direktor prodaje Rob Billington rekao je da imaju više od 500 klijenata, od kojih je polovina u Evropi, te preko stotine u Sjevernoj Americi. Ovakva upotreba ChatGPT-a od strane Sošl linksa dokazuje kako ova impresivna alatka iz 2023. može ohrabriti industriju špijunaže koja razmatra upotrebu vještačke inteligencije kao alatku za javnu bezbjednost.
Viši politički analitičar udruženja Američkih građanskih sloboda, Džej Stenli (Jay Stanley) rekao je za Forbes da će upotreba AI alatki kao što je ChatGPT kako bi se povećalo nadziranje društvenih mreža vjerovatno “nadmašiti praćenje individua na način koji je nemoguć s ljudima“.
To je problem, ne samo jer će ovakvo tehnološko prisluškivanje povećati nepreciznosti i pristrasnosti, već će i zamrznuti diskusije na internetu jer će se svi osjećati “kao da ih neko gleda“, ne ljudi, već AI agenti koji imaju mogućnost da „prijave stvari ljudima koji mogu izazvati posljedice,” dodao je Stanley.
ChatGPT-ev tvorac, OpenAI, nije odgovorio na zahtjeve za komentar. Politika upotrebe ChatGPT-a ne dozvoljava “aktivnosti koje narušavaju privatnost ljudi,” ubrajajući “praćenje ili nadziranje pojedinca bez njegove dozvole.”
“Mi se strogo držimo politike upotrebe OpenAI-a,” rekao je Hektor Talavera (Hector Talavera), direktor za komunikaciju u Sošl linksu. “Upotrebljavamo ChatGPT za analizu teksta, sužavanje sadržaja, prepoznavanje tema, klasifikaciju teksta kao pozitivnog, neutralnog ili negativnog, te procjena sentimenta za razne djelove teksta.” (Također je ponovio jednu od prethodnih izjava, u kojoj kaže da firma nije imala veze s ruskom vladom i da je Kulikov osudio invaziju Rusije na Ukrajinu.)
Portparol Mete, Rajan Brek (Ryan Brack) rekao je da imaju tim od preko stotinu ljudi koji su fokusirani na odbijanje nedozvoljenog prikupljanja podataka. “Sprovodimo naše mjere protiv nepriznatih prikupljača podataka, u ovo spada i pravno djelovanje, ukoliko prepoznamo da se išlo protiv naših uslova,” rekao je Brek.
Talavera je rekao da je Meta pogriješila prilikom povezivanja ove kompanije s uklonjenih 3.700 naloga, dodavši da se ne bave masovnim prikupljanjem podataka s društvenih mreža. Naprotiv, korisnik se obrati Sošl linksu da uzme objave koje su relevantne za njihovu istragu, koje korisnik kasnije analizira u okviru programa Sošl linksa. Podaci se nakon toga pohranjuju na korisnikov kompjuter, ne na serveru Sošl linksa. “Puno je lakše i efikasnije nego koristiti Gugl (Google) i web pretraživače, u osnovi, ista je stvar,” dodao je Talavera.
Ovo ipak preostaje moćan alat za nadziranje aktivnosti ljudi na internetu, ova firma ovo promoviše kao korisnim za praćenje tokova protesta. Prilikom konferencije, Sošl links analitičar Bruno Alonso koristio je ovaj softver kako bi procijenio reakcije na internetu na nedavni kontroverzni potez trenutnog premijera Španije da da amnestiju političarima Katalonije koji su pokušali da ostvare nezavisnost 2017. godine.
Ovaj instrument je skenirao Twitter za objave koje sadrže ključne riječi i hashtagove, uključujući “amnestiju”, procesuirao ih je putem ChatGPT-a, koji je dalje ocijenio njihov sentiment pozitivnim, negativnim ili neutralnim, prikazujući rezultate na grafikonu. Ovaj instrument je takođe u mogućnosti pravljenja brzog sažetka i parčanja diskusija na velikim društvenim mrežama kao što je Fejsbuk, odabirući teme o kojima se često priča.
Takođe je moguće tražiti za prepoznavanje lica ukoliko je instrument označio nekoga ko predstavlja “negativan” sentiment na društvenim mrežama, prema prezentaciji Alonsa. Korisnik može odabrati lice nekoga, upotrebom algoritama Sošl linksa, tragati za poklapanjem širom društvenih mreža, što pruža policiji dalji uvid u identitet pojedinca.
“Mogućnosti su stvarno beskrajne,” dodao je Alonso. Talavera je rekao da firma ne pohranjuje slike lica, međutim samo pretražuje internet za podudaranja sa slikom. Dodao je da je to slično Gugl ‘reverse image’ pretraživačem, ali Sošl links koristi vlastiti softver za prepoznavanje lica te može pregledati javne grupe društvenih mreža i slike korisnika.
Demonstriranje ove alatke izazvalo je veliku pažnju na konferenciji vještačke inteligencije u Milipolu, to je bila velika trgovačka predstava gdje firme nude naoružanje i tehnologiju za nadziranje organima zakona i agencijama nacionalne bezbjednosti. Endi Martin (Andy Martin), bivši britanski inžinjer izraelskog giganta za forenziku telefona, Cellebrite, rekao je da veći govorni modeli kao što je ChatGPT će biti korisni za sve vrste operacija policije, od pregledavanja istorije telefonskih poziva do pronalasku anomalija kod ”životnog obrazca” pojedinca, sve do ”intervjua” gdje AI daje ispitivaču informacije tokom ispitivanja.
Upozorio je da policija mora biti transparenta po pitanju svoje upotrebe vještačka inteligencije zbog problema s njenom pouzdanošću i pristrasnošću. “Nikada neće postojati način da se vještačka inteligencija učini nepristrasnom,” rekao je, ukazujući, kao što su i drugi, da tehnologije programirane od strane ljudi odslikavaju ljudsku sklonost ka pravljenju greški.
Takođe italijanska kompanija tehnologije za nadzor Cy4gate, čija nova alatka ‘Gens.AI’ pravi ubjedljivo realistične ljudske profile na društvenim mrežama s raznim osobinama. Ne samo da ovaj AI proizvodi realistične slike, već se takođe može pustiti u promet na platformama kao što su Fejsbuk i Telegram kao autonomne AI osobe. Ovakve lažne profile koriste prikriveni istraživači kako bi saznali više o pojedincima za koje se sumnja da se žele upustiti u kriminalne radnje, iako ovim AI osobama tipično upravljaju ljudi, a ne AI.
Cy4gate tvrdi da su njihovi avatari dovoljno realistični “da bi se približilo meti i izgradila veza povjerenja” te izbjeglo otkrivanje. Jedan avatar kojeg je Forbes generisao putem Gens.AI te predstavio ga na Milipolu, ženska osoba u ranim tridesetim godinama, lični trener, prisutna je na nekoliko društvenih mreža, uključujući Fejsbuk, gdje je bila aktivna već od 2019. Meta zabranjuje tajne policijske naloge. Ubrzo nakon što je Forbes ukazao na ovaj nalog Meti, uklonjen je.
Kombinovanjem Sošl linksa i Gens.AI vodi jako realnoj mogućnosti nekoj bizarnoj vrsti AI eho-komore, gdje AI softver za špijunažu na društvenim mrežama napravljen od strane jedne firme koristi se da nadzire AI osobe stvorene od strane druge, s ChatGPT-em i ostalim logičkim mašinama. Ukratko, pojava kanibalizma vještačke inteligencije za svrhe špijunaže.
Thomas Brewster, Forbes