ČetGPT sada može da napravi lažnu sliku pasoša ili vozačke, a baku i djeda zovu AI unuci

Krajem marta, OpenAI je dodao nove mogućnosti za generisanje slika svom vodećem proizvodu, ČetGPT-u (ChatGPT). Ažuriranje je postalo viralno, što je dovelo do navale AI-generisanih slika na društvenim mrežama i privuklo milione korisnika na platformu.
Međutim, novo istraživanje firme za sajber bezbjednost Cato Networks otkrilo je da korisnici sada mogu da prevare ČetGPT da stvori razne lažne dokumente, uključujući pasoše i vozačke dozvole. Takođe se može koristiti za kreiranje uvjerljivih falsifikovanih čekova i računa.
Portparolka OpenAI, Taja Kristianson (Taya Christianson), izjavila je: „Naš cilj je da korisnicima omogućimo što više kreativne slobode“. Slike koje generiše ČetGPT uključuju C2PA metapodatke kako bi se identifikovale kao AI-generisane. OpenAI preduzima mjere protiv osoba koje krše politiku korišćenja platforme.
Fejk dokumenti završe na dark vebu
Etaj Maor (Etay Maor), glavni strateg za bezbjednost u Cato Networksu, koji već 20 godina proučava sajber bande, rekao je da se ovakvi falsifikovani dokumenti obično prodaju na dark vebu i da su ranije bili teško dostupni. Ali zahvaljujući alatima poput ČetGPT-a, kreiranje realističnih lažnih dokumenata postalo je neuporedivo lakše i brže.
Dokumenti poput pasoša i vozačkih dozvola ključni su za verifikaciju identiteta osobe. Izmijenjeni dokumenti otvaraju vrata kriminalcima da čine finansijske i medicinske prevara. Posljedice zloupotrebe su široke i dalekosežne, od pristupa bankarskim računima do zloupotrebe recepata, rekao je Maor.
„Ne mora više da bude riječ o profesionalnom kriminalcu. Bilo ko to sada može da uradi. I to je ono što je zaista zabrinjavajuće“, rekao je. U roku od nekoliko sekundi uspio je da navede ČetGPT da napravi lažni pasoš osobe koja je donekle ličila na njega.
Korišćenje AI od strane sajber kriminalaca nije nova pojava. ČetGPT i drugi AI alati već se koriste za pisanje malicioznog koda, kreiranje fišing mejlova i unapređivanje sajber napada. Ne radi se samo o tekstualnim alatima. Tehnologije za govor, slike i video dodatno pomažu kriminalcima u sprovođenju složenih prevara.
„Svi ti različiti elementi koji grade povjerenje – stil osobe, njen izgled, glas, zvanični dokumenti – svi ti gradivni elementi povjerenja nestaju“, rekao je Maor.
Navala bot studenata na univerzitete
Koledži širom SAD suočavaju se sa navalom „bot“ studenata koji se masovno upisuju na kurseve kako bi izvukli desetine miliona dolara iz državnih i federalnih fondova, izvijestio je Voice of San Diego. Ovi „bot“ studenti koriste lažna imena i predaju domaće zadatke generisane pomoću AI, kako bi ostali „upisani“ dovoljno dugo da dobiju pomoć. U 2024. godini, oko 25% prijava na koledže u Kaliforniji bilo je od botova.

Neka AI pita babu i djeda za zdravlje
Startap InTouch koristi AI kako bi zvao vaše roditelje ili babe i djedove, provjerio kako su i vodio razgovor ako vi nemate vremena, izvijestio je 404 Madia. AI se može podstaći da govori i postavlja pitanja o određenim temama. Nakon razgovora, osoba koja je organizovala poziv dobija AI-generisani rezime razgovora i bilješke o raspoloženju sagovornika. „Ideja da AI zove vašu usamljenu rodbinu jer vi ne možete ili ne želite je distopijska, uvredljiva i posebno neljudska – još više nego druge AI kreacije“, piše Džozef Koks (Joseph Cox).
Dešifrovanje jezika delfina
Gugl (Google) je obučio AI model koji pokušava da otkrije obrasce i strukture u zvucima delfina. Cilj je da se razumije njihovo značenje i utvrdi da li imaju jezik. Model se zove DolphinGamma. Ima 400 miliona parametara i treniran je na podacima koje je prikupio Wild Dolphin Project, neprofitna organizacija koja proučava atlantske šarene delfine. Krajnji cilj projekta je da se razvije tehnologija koja bi omogućila dvosmjernu komunikaciju između istraživača i delfina u okeanu.
Gugl otežava prelazak kod konkurencije
Vještačka inteligencija i dalje je ključna oblast interesovanja za kompanije. Kao i talenat potreban da se ona razvija. U tom cilju, Guglov DeepMind traži od zaposlenih da potpišu klauzule o zabrani konkurencije koje mogu trajati i do godinu dana. Time im se zabranjuje da pređu u konkurentske firme 12 mjeseci nakon odlaska iz Gugla, izvijestio je Biznis insajder. Zaposleni i dalje primaju platu tokom tog perioda „produženog plaćenog odmora“.
Nando De Frietas, bivši direktor Gugl DeepMind-a, izrazio je frustraciju tim ugovorima na mreži X: „To je zloupotreba moći, koja se ne može opravdati nikakvim ciljem“.
Rashi Shrivastava, Forbes
The Prompt: ChatGPT Generates Fake Passports