I Pentagon počeo da se „igra“ sa AI: Provjera zaposlenih i čuveni „Mama test“

AKTUELNO Forbes 5. jan 2025. 21:22
featured image

5. jan 2025. 21:22

Agencija za kontraobavještajnu i bezbjednosnu zaštitu (DCSA), koja izdaje sigurnosne dozvole za milione američkih radnika, koristi vještačku inteligenciju kako bi ubrzala svoj rad. Međutim, „crne kutije“ nisu dozvoljene, navodi direktor agencije.

Prije nego što dozvoli da bilo ko od njegovih 13.000 zaposlenih u Pentagonu pretraži informacije o nekom američkom građaninu, direktor DCSA, Dejvid Katler (David Cattler), traži od njih da postave pitanje: „Da li moja mama zna da vlada to može da uradi?“.

„Mama test“, kako ga Katler naziva, predstavlja logičnu provjeru kako DCSA obavlja svoj posao. Ova praksa odražava i način na koji Katler razmišlja o primjeni AI u agenciji.

DCSA je odgovorna za obradu i odobravanje 95% sigurnosnih dozvola za federalne radnike. To podrazumijeva da svake godine mora da sprovede milione istraga. Ovo agenciji omogućava pristup velikoj količini privatnih podataka. Prošle godine DCSA je uvela AI alate kako bi organizovala i tumačila te informacije.

Mapa rizika u realnom vremenu

Ti alati ne uključuju ČetGPT (ChatGPT), Bard, Klod (Claude) niti druge napredne generativne AI modele. Umjesto toga, „kopaju“ i organizuju podatke slično kako to rade tehnološke kompanije iz Silicijumske doline godinama. Koriste se sistemi koji transparentnije pokazuju šta su radili nego što to radi bilo koji jezički model. Katler navodi da je najperspektivniji način primjene ovih alata u agenciji određivanje prioriteta među postojećim prijetnjama.

Ako se ne koriste pažljivo, ovi alati mogu ugroziti bezbjednost podataka i unijeti pristrasnost u vladine sisteme. Ipak, Katler vjeruje da određene „manje atraktivne“ funkcije AI mogu značajno unaprijediti rad agencije. Pod uslovom da alati nisu „crne kutije“.

„Moramo razumjeti zašto je alat kredibilan i kako radi“, rekao je Katler za Forbes. „Moramo dokazati da alati koje koristimo rade ono što tvrde da rade, na objektivan, usklađen i dosljedan način.“

Mnogi možda i ne smatraju alate koje Katler opisuje AI tehnologijom. Na primjer, on je oduševljen idejom izrade mape sa rizicima o objektima koje DCSA obezbjeđuje, a gdje bi se rizici prikazivali u realnom vremenu. Informacije o potencijalnim prijetnjama koje prikupe vladine agencije koristile bi se za redovno ažuriranje. Ovakav alat, kaže, pomogao bi DCSA da „odredi gdje da postavi (metaforičko) vatrogasno vozilo“. Ne bi otkrivao nove informacije, već bi postojeće prikazivao na korisniji način.

Poziv na oprez

Metju Šerer (Matthew Scherer), viši savjetnik za politiku u Centru za demokratiju i tehnologiju, kaže za Forbes da AI može biti koristan za organizaciju već prikupljenih i validiranih informacija. Međutim, sljedeći korak – donošenje ključnih odluka, poput isticanja crvenih zastavica tokom procesa provjere ili prikupljanje podataka sa društvenih mreža – može biti opasan. Na primjer, AI sistemi se često muče sa razlikovanjem osoba sa istim imenom, što može dovesti do grešaka u identifikaciji.

„Zabrinjavajuće bi bilo kada bi AI sistem davao preporuke ili favorizovao određene kandidate“, rekao je Šerer. „Tada ulazimo u domen automatizovanog donošenja odluka“.

Katler navodi da odjeljenje izbjegava upotrebu AI za identifikaciju novih rizika. Ipak, čak i kod određivanja prioriteta, mogu se pojaviti problemi privatnosti i pristrasnosti. Prilikom ugovaranja sa AI kompanijama (Katler nije imenovao nijednog partnera), DCSA mora pažljivo razmotriti koje privatne podatke unosi u njihove algoritme i kako će ti algoritmi dalje koristiti te podatke kada ih dobiju.

Curenje podataka

Kompanije koje nude AI proizvode opštoj javnosti su imale slučajeve „curenja“ privatnih podataka, koje su im korisnici povjerili. To je gubitak povjerenja koji bi bio katastrofalan ako bi se desio sa podacima koje posjeduje Pentagon.

AI takođe može unijeti pristrasnost u sisteme Ministarstva odbrane. Algoritmi reflektuju slijepe tačke svojih kreatora i podataka na kojima su obučeni. DSCA se oslanja na nadzor koji sprovode Bijela kuća, Kongres i druga administrativna tijela kako bi se zaštitio od pristrasnosti u svojim sistemima. Izvještaj RAND korporacije iz 2022. godine upozorio je da AI može unijeti pristrasnost u proces provjere sigurnosnih dozvola. Potencijalni razlog tome mogla bi da bude pristrasnost programera ili istorijske rasne razlike.

Katler priznaje da se društvene vrijednosti koje oblikuju algoritme, uključujući one u Pentagonu, vremenom mijenjaju. Danas, kako kaže, odjeljenje je manje tolerantno prema ekstremističkim stavovima nego ranije. Ali je donekle tolerantnije prema osobama koje su bile zavisnici od alkohola ili droge i sada su u procesu rehabilitacije. „Donedavno, u mnogim djelovima SAD-a bilo je ilegalno biti gej“, rekao je. „To je bila pristrasnost koju bi sistem možda morao sam da prevaziđe“.

Emila Baker White, Forbes
Rashi Shrivastava, Forbes

The Pentagon Is Using AI To Vet Employees — But Only When It Passes ‘The Mom Test’