Nova era dipfejka: Stvarni voditelji “izvještavaju” o lažnim pričama

TEHNOLOGIJA Forbes 31. okt 2023. 11:48
featured image

31. okt 2023. 11:48

“Sada ćemo razgovarati s jedinim preživjelim u nedavnoj pucnjavi u školi, TikTokerom Krišnom Sahajem (Krishna Sahay)”, izgovara – barem se tako čini – voditeljka vijesti američkog kanala CBS, An Mari Grin (Anne-Marie Green).

“To je sigurno bilo apsolutno traumatično,” kaže novinarka u drugom videu, takođe se obraćajući Sahaju. “Šta je svima prolazilo kroz glavu?”

Nakon kratke pauze, Sahaj izgovara: “Pa meci”.

U drugom segmentu vijesti o pucnjavi u školi, ovog puta sa CNN-a, novinar pita Sahaja: „Kako si preživio? Čitao si magazin ili si nešto drugo radio tokom pucnjave?“ (magazine – izraz koji se koristi i za šaržer za metke– prim.prev.).

„Čitao?“, odgovara Sahaj na pitanje o magazinu. „Praznio sam ga!“

Ova zvijezda TikToka i JuTjuba, jedan je od gomile korisnika društvenih mreža koji koristi generativnu vještačku inteligenciju i druge softvere za stvaranje segmenata vijesti koje izgledaju vrlo stvarno, sa vodećim imenima velikih medijskih kuća – poput Nore O‘Donel (Norah O‘Donnell) sa Večernjih vijesti CBS ili novinara CNN-a, BBC-a i šire. Zahvaljujući tehnologiji, novinari izgledaju i zvuče realistično, a zbog moćnih algoritama platformi, senzacionalističke priče i lažni naslovi, sa njihovim imenima i izgledom ili logom medijske kuće, postaju viralni, budući da izgledaju kao vjerodostojne vijesti.

Sredinom oktobra internetom se proširio autentični video CNN-ove dopisnice Klarise Vord (Clarissa Ward) koji prikazuje kako ona bježi od raketa u blizini granice Gaze i Izraela. Video je, međutim, bio popraćen lažnim audio materijalom koji potkopava njeno izvještavanje. Početkom oktobra, klip napravljen uz pomoć AI sa jednom od voditeljki emisije CBS „Ovog jutra“ Gejl King (Gayle King), promoviše proizvod koji ona nikada nije koristila niti za koji je čula i širio se na internetu. Dipfejk voditelja CNN-a Andersona Kupera (Anderson Cooper), u kojem navodno kaže da nas bivši predsjednik Donald Tramp (Donald Trump) „krade novi šupak“, takođe je postao viralan nakon što su ga Tramp i njegov sin podijelili na mrežama Trut soušal (Truth Social) i Tviter (Twitter).

U lažiranim prilozima koje je stvorio Sahaj, a zbog kojih je prikupio milione pratilaca, više od 10 poznatih voditelja s čitavog niza TV mreža “izgovara” problematične komentare i “intervjuiše” Sahaja koji se izruguje pucnjavama u školama, terorističkim napadima 11. septembra, žrtvama silovanja i drugim grupama koje targetiraju kriminalci.

U mnogim slučajevima ovi izmišljeni segmenti privlače veću publiku od stvarnih vijesti koje objavljuju legitimne medijske kuće na svojim verifikovanim profilima. Jedan od posljednjih dipfejk videa koji je objavio Sahaj, a u kojem se nalazi Margaret Brenan (Margaret Brennan) iz poznate emisije CBS-a, prikupio je više od 300.000 lajkova na TikToku. Radi poređenja, najpopularniji video istog dana objavljen na službenom TikTok profilu emisije prikupio je tek 7.000 lajkova. TikTok je Sahaja izbacio sa svoje platforme dok je Forbes radio na ovom izvještaju, a Sahaj nije odgovorio na nekoliko upita za komentar. Iako je njegov TikTok profil sada suspendovan, njegove objave još je lako pronaći na platformi budući da ih ponovno objavljuju i drugi korisnici, a neki od njih dostupni su i na JuTjubu.

Najveće platforme društvenih medija imaju pravila za borbu protiv dipfejk videa. Portparolka TikToka Erijen Selijers (Ariane Selliers) izjavila je kako “TikTok od kreatora traži da jasno označe realističan sadržaj koji je nastao vještačkom inteligencijom”, kao i da TikTok “nastavlja da uklanja sadržaj koji može da nanese štetu oponašanjem stvarnih ljudi i obmanjivanjem korisnika.” Većina videa koje je objavljivao Sahaj nisu sadržali potrebnu oznaku. TikTok zabranjuje objavu dipfejk videa u kojima vještačka inteligencija oponaša privatne osobe i “iako imamo fleksibilniji pristup što se tiče javnih osoba, ne želimo da ni oni budu podvrgnuti zlostavljanju ili da ljudi budu obmanuti po pitanju politike ili finansija”, navodi kompanija u svom pravilniku. Portparolka JuTjuba Elena Hernandez kaže kako JuTjub već dugo ima “politike za borbu protiv dezinformacija i zabranjuje manipulaciju i izmjenu sadržaja na način koji bi mogao da predstavlja ozbiljan rizik od teške štete”.

Portparolka CNN-a Emili Kun (Emily Kuhn) nije željela da komentariše segmente vijesti manipulisane vještačkom inteligencijom, ali je izjavila kako je audio u prilogu CNN-ove dopisnice s granice Izraela i Gaze “izmišljen, netačan i neodgovorno iskrivljuje trenutak koji je CNN pokrio uživo. Ljudi bi prilog trebalo da pogledaju u cjelini i to putem vjerodostojne platforme”.

CBS-ova voditeljica O’Donell nije odgovorila na upite za komentar, no portparolka medijske kuće Ejpril Endrjus je kako “CBS vrlo ozbiljno shvaća svoja prava na intelektualno vlasništvo.” Portparol BBC-ja Robin Miler kaže kako “naši zastupnici postupaju svaki put kada saznamo za neki deepfake video,” kao i da “u svijetu u kojem dezinformacija ima sve više, pozivamo sve da provjeravaju linkove kako bi se uvjerili da vijesti dobivaju iz izvora kojima vjeruju.”

Nova era dipfejka

Dipfejk videi, kao i jeftiniji, takozvani “cheepfakes“, nisu novost – samo ovog mjeseca internetom su se proširili lažni videi Toma Henksa u kojemu glumac promoviše zubarsko osiguranje, kao i poznatog YouTubera MrBeasta čiji je lažni dvojnik dijelio modele iPhonea 15.

“Jesu li društvene mreže spremne na porast deepfakeova nastalih umjetnom inteligencijom?” upozorio je na Tviteru MrBeast, čije je pravo ime Džimi Donaldson. “Ovo je ozbiljan problem.”

Nadzorni odbor Facebooka takođe je prošle sedmice objavio da su otvorili slučaj u vezi s manipulisanim videosnimkom američkog predsjednika Džoa Bajdena.

Međutim, ono što jeste novo su manipulisane vijesti koje se oslanjaju na glasove i lica poznatih novinara, a to je i mnogo opasnija situacija. Ranije ove godine, kommpanija za analitiku društvenih medija Graphika objavila je istraživanje o “novom i jedinstvenom obliku video sadržaja” otkrivenih na Facebooku, Twitteru i YouTubeu. Riječ je o videima televizijskih voditelja stvorenih vještačkom inteligencijom koji su dio “prokineske operacije političkog spama.” Kineski državni mediji takođe su eksperimentisali s voditeljima nastalim korištenjem vještače inteligencije. Deepfake videosnimke visoke produkcije i dužeg trajanja, poput onih koje je stvarao Sahaj, sve su popularnije na platformama.

“Videi televizijskih voditelja moćan su alat za odašiljanje dezinformacija,” rekao je Hani Farid, profesor na univerzitetu Berkli koji je na temu deepfakea svjedočio i pred američkim Kongresom. “U mnogim slučajevima te voditelje publika poznaje i vjeruje im, a čak ako to i nije slučaj, opšti format televizijskih vijesti ljudima je poznat, a samim time mu se i više vjeruje.”

“Rezultati su vrlo dobri, iako ne i savršeni, pogotovo kada se takve snimke gleda na mobilnim uređajima i kada korisnici brzo pregledavaju društvene mreže,” dodao je Farid, čije istraživanje se fokusira na ljudsku percepciju i analizu slike. “Moraćemo se uozbiljiti oko zaštite prava ljudi čija se lica i glasovi prisvajaju.”

Deepfake videi često se koriste u mimovima čiji je cilj nasmijati publiku. Do ekstremnog scenarija – onog u kojem bi se taj manipulisani sadržaj mogao koristiti za širenje dezinformacija i tako promijeniti tok političkih izbora, javnih ponuda kompanija i drugih važnih događaja – još nije došlo. Ipak, američki predsjednički izbori 2020. godine dogodili su se uoči eksplozije vještačke inteligencije koju je pokrenuo ChatGPT. Ta aplikacija ove je godine postala jedna od najbrže rastućih u istoriji, a pridonijela je i širokoj upotrebi te tehnologije, kao i milijarde dolara ulaganja u start-up kompanije koje se bave vještačkom inteligencijom.

Sada gotovo svako može koristiti jednostavne i dostupne alate vještačke inteligencije kako bi “natjerao” javne ličnosti (ali i obične ljude) da govore i čine stvari koje inače nikada ne bi činili. To je pojačalo strahove da bi vještačka inteligencija nadolazeće izbore u Americi mogla pretvoriti u Divlji zapad. Nikoga nije umirila činjenica da se sve popularnija tehnologija koristi za stvaranje naizgled legitimnih vijesti.

Najveći strah je da će se takvi videi – sa stvarnim voditeljima u realističnim situacijama – koristiti kao “agresivan oblik širenja dezinformacija… s tim ćemo se morati nositi dok nam se približavaju izbori 2024. godine,” kaže advokat Kevin Goldberg, stručnjak za Prvi amandman američkog Ustava u neprofitnom udruženju Freedom Forum iz Washington DC-ja.

Ipak, Goldberg je upozorio da “takođe ne bismo smjeli preburno reagovati.”

“Da, ovdje postoji potencijal za podvale,” kaže on za Forbes. “No naš pravni sistem, kao i naše društvo u cjelini, i više je nego opremljen da se nosi s ovom novom okolinom.”

Aleksandra Levin, novinarka Forbes-a