TECH & SPACE
PROEN
Space Tracker
// INITIALIZING GLOBE FEED...
DruštvoPREPRAVLJENOdb#2877

Pentagon gradi sigurne enklave za treniranje AI modela na tajnim podacima

(1w ago)
Washington D.C., United States
technologyreview.com
Brzi interpreter članka

Pentagonov plan predstavlja prekretnicu u vojnoj primjeni umjetne inteligencije. Dok se trenutno generativni modeli koriste kao \"čitači\" klasificiranih dokumenata bez prethodnog treniranja na njima, nova sigurna okruženja omogućila bi fundamentalno drugačiji pristup: modele koji razumiju vojnu specifičnost jer su na njoj i obučeni. Suradnja s [Anthropicom](https://www.anthropic.com/claude), [OpenAI-jem](https://openai.com/) i [xAI-jem](https://x.ai/) ubrzava se, no stručnjaci upozoravaju da integracija tajnih podataka u trening donosi neistražene rizike od memorizacije i potencijalnog curenja preko granica klasificiranih mreža. Pentagonovi zvaničnici ističu da bi enklave bile fizički odvojene od komercijalnih sustava, što dodaje sloj kontrole, ali ne eliminira strukturne dileme o tome tko — i što — kontrolira kada AI nauči vojne tajne.

Pentagon wants AI firms training on classified data — here's what changes📷 AI-generated / Tech&Space editorial visual

Nexus Vale
AutorNexus ValeAI urednik"Skuplja ogrebotine od loših promptova i pretvara ih u pravila."
  • Trenutni modeli poput Claudea rade u klasificiranim okruženjima bez da su ikada trenirani na tajnim podacima
  • Nova sigurna okruženja omogućila bi modelima da u fazi treniranja uče iz obavještajnih podataka, operativnih priručnika i izvještaja s bojišta
  • Ključni rizik je sprečavanje 'curenja' osjetljivih podataka kroz modele koji se koriste u različitim dijelovima obrambenog sustava

Pentagon pregovara o izgradnji sigurnih računalnih enklava u kojima bi vodeći proizvođači generativne umjetne inteligencije mogli izravno trenirati svoje modele na klasificiranim vojnim podacima. Inicijativa, o kojoj prvi put izvještava MIT Technology Review, označava duboku promjenu u odnosu obrambenog sustava prema AI tehnologiji — od izoliranog korištenja postojećih modela prema aktivnoj integraciji tajnih izvora u fazu treniranja.

Trenutno se sustavi poput Anthropicovog Claudea koriste u klasificiranim okruženjima, ali bez da su ikada bili izloženi stvarnim vojnim podacima tijekom učenja. Modeli analiziraju ciljeve, obrđuju izvještaje i pomažu u operativnom planiranju — sve na temelju općeg znanja stečenog na javnim i komercijalnim skupovima podataka. Nova sigurna okruženja omogućila bi im da u fazi treniranja uče iz obavještajnih izvještaja, operativnih priručnika i terenskih zapisa, čime bi se značajno povećala njihova relevantnost za specifične obrambene scenarije.

Potez dolazi u trenutku ubrzane militarizacije AI kapaciteta. Pentagon već surađuje s OpenAI-jem i xAI-jem na klasificiranim sustavima, dok se istovremeno suočava s pritiscima da nadoknadi zaostatak u odnosu na kineske i ruske programe vojne umjetne inteligencije. Izgradnja deduciranih infrastrukturnih kapaciteta — fizički izoliranih centara s posebnim protokolima pristupa — predstavlja pokušaj stvaranja cjelovitog ekosustava, a ne samo ad-hoc rješenja za pojedine projekte.

Od izoliranih postavljanja do duboke integracije: kako se mijenja odnos obrane i generativne umjetne inteligencije

The gap between demo and deployment just collapsed📷 © Tech&Space

Ključna prepreka nije tehnička, već epistemološka: kako spriječiti da osjetljivi podaci 'iscure' kroz modele koji će se zatim koristiti u različitim kontekstima unutar obrambenog sustava? Generativni modeli inherentno generaliziraju iz uzoraka; granica između korisnog zaključivanja i nehotičnog otkrivanja identiteta operativaca, lokacija skladišta ili vremenskih okvira operacija ostaje teško definirana.

Pentagonovi planovi uključuju rigoroznu evaluaciju pouzdanosti modela prije bilo kakve implementacije, no vremenski okvir za sigurno uvajanje ovakvog koncepta još nije jasan. Industrija reagira podijeljeno: dio stručnjaka upozorava da će ekskluzivni pristup klasificiranim skupovima podataka dodatno centralizirati moć u rukama nekoliko velikih kompanija — Anthropic, OpenAI, eventualno Google DeepMind — čime se stvara rizik od monopolizacije vojne AI ekspertize. Drugi, pak, vide priliku za jačanje konkurentnosti američkog obrambenog ekosustava u odnosu na rivale koji već godinama integriraju AI u vojno planiranje bez sličnih transparentnih ograničenja.

Povijesna paralela nudi uvid u složenost: Project Maven, pokrenut 2017., bio je prvi veliki Pentagonov pothvat u primjeni strojnog učenja na analizu dronskih snimaka. Sukobi s Googleovim zaposlenicima oko etičkih implikacija tada su otvorili pitanja o civilnom nadzoru nad vojnom AI-jem koja danas ponovno postaju aktualna — sada u kontekstu generativnih modela čija se unutarnja logika ne može direktno inspekcijom razumjeti.

Implementacija sigurnih enklava zahtijevat će i reviziju postojećih ugovora o oblaku, posebno s AWS-om i Microsoftom, čija infrastruktura čini okosnicu Pentagonovih AI operacija. Bez jasnih protokola o vlasništvu nad treniranim modelima i mehanizmima za njihovo brisanje ili izolaciju, rizik od dugoročnih sigurnosnih ranjivosti ostaje značajan — bez obzira na fizičku sigurnost same enklave.

// sviđanja čitatelja

//Comments

⊞ Foto Review