Anthropic tuži 17 agencija: kad sigurnost AI modela postane pravni bojište
Anthropic sues 17 agencies: when AI safety becomes a legal battleground📷 AI-generated / Tech&Space editorial visual
- ★Claude već radi unutar klasificiranih Pentagonovih sustava, što stvara paradoks: vlada koristi model čije sigurnosne postavke istovremeno pokušava slomiti
- ★Agencije su koristile proturječne prijetnje — od Zakona o obrambenoj proizvodnji do blokade pristupa IT opskrbama — kako bi prisilile Anthropic na uklanjanje zaštitnih mehanizama
- ★Tužba se temelji na 10 U.S.C. § 3252 i vodi se u sanfranciskoj federalnoj sudnici, što čini presedan u direktnom sukobu tehnološke tvrtke i državnih institucija oko regulacije AI sigurnosti
Anthropic je podnio federalnu tužbu protiv 17 američkih agencija i Bijele kuće, tvrdeći da vladini pritisci ugrožavaju temeljne zaštitne mehanizme njegovog AI modela Claude — uključujući zabranu autonomnog oružja i masovnog nadzora. Dokument od 48 stranica otkriva paradoks koji je teško zaobići: Claude već radi unutar klasificiranih Pentagonovih sustava, dok vlada istovremeno prijeti tvrtki zbog istih sigurnosnih postavki koje čine taj angažman mogućim.
Agencije su koristile proturječne prijetnje kako bi prisilile Anthropic na uklanjanje zaštitnih mehanizama. Spektar pritisaka proteže se od Zakona o obrambenoj proizvodnji do blokade pristupa IT opskrbama — sve s ciljem sloma sigurnosnih ograničenja koja vlada smatra preprekom za nacionalnu sigurnost. Sporni mehanizmi, međutim, nisu tehničke sitnice: oni sprječavaju autonomno upravljanje oružjem i masovni nadzor građana, što predstavlja temeljnu etičku granicu u razvoju umjetne inteligencije.
Tužba se temelji na 10 U.S.C. § 3252, zakonskoj odredbi koja ograničava vojne ovlasti nad civilnim tehnologijama. Anthropic argumentira kako federalne agencije prelaze ovlasti u regulaciji AI sigurnosti, čime se otvara presedan u direktnom sukobu tehnološke tvrtke i državnih institucija. Slučaj će se voditi u sanfranciskoj federalnoj sudnici — prvi takav primjer u američkoj pravnoj povijesti.
Paradoks sigurnosti: korisnik i protivnik u istom tijelu
Vladina pozicija nosi u sebi inherentnu kontradikciju. Pentagon već koristi Claude u klasificiranim sustavima, što znači da su sigurnosne postavke koje vlada sada želi slomiti upravo one koje su omogućile tu suradnju. Ako Anthropic ukloni zaštitne mehanizme pod pritiskom, istovremeno će ugroziti i sustave u kojima Claude već funkcionira za vladine potrebe.
Pentagon već koristi Claude u klasificiranim sustavima, dok vlada istovremeno prijeti tvrtki zbog njenih zaštitnih mehanizama
Anthropic sues 17 agencies: when AI safety becomes a legal battleground📷 © Tech&Space
Analitičari upozoravaju na dalekosežne posljedice presude. Ako se tužba odbije, vrata će se otvoriti za daljnje državne intervencije u AI razvoj, stvarajući nesigurno okruženje za inovaciju. Suprotno, pobjeda Anthropica mogla bi blokirati napredna AI rješenja koja vlada smatra kritičnima za nacionalnu sigurnost — ili pak postaviti pravne standarde koji će zaštititi i razvojne timove i građane.
Anthropic tvrdi da vladini pritisci ugrožavaju same temelje AI razvoja u SAD-u. Argument nije samo retorički: ako tvrtke ne mogu pouzdano implementirati sigurnosne mehanizme bez straha od sankcija, cijeli ekosustav postaje podložan političkim vjetrovima. To posebno zabrinjava u kontekstu globalne AI konkurencije, gdje Kina i Europska unija razvijaju vlastite regulacijske modele — često značajno restriktivnije od američkih.
Slučaj će vjerojatno pokrenuti širu raspravu o granicama vladine moći nad tehnologijama koje još uvijek ni sami stručnjaci ne razumiju u potpunosti. Ključno pitanje nije samo tko će pobijediti u sudnici, već kako će se presuda preslikati na buduće regulacije. AI sigurnost nije statičan cilj — ona zahtijeva kontinuirano prilagođavanje kako modeli postaju sposobniji. Ako vlada uspostavi pravo na jednostrano uklanjanje zaštitnih mehanizama, taj proces postaje politički, a ne tehnički.
Za sada, sanfranciska sudnica postaje neočekivano žarište u kojem se odlučuje hoće li AI sigurnost ostati u rukama onih koji modele razvijaju, ili će postati instrument šire državne kontrole.