Anthropic tuži Pentagon: AI u središtu novog regulatornog rata
Anthropic Sues Pentagon Over AI Supply-Chain Ban📷 AI-generated / Tech&Space editorial visual
- ★DoD je označio Anthropicove modele kao rizik za lanac opskrbe, kategoriju tradicionalno rezerviranu za hardverske ranjivosti ili strane komponente
- ★Tvrtka tvrdi da Trumpova administracija pretvorila rutinski ugovorni spor u federalnu zabranu koja bi mogla koštati stotine milijuna godišnje
- ★Tužba postavlja presedan: može li se AI politika provoditi kroz zaobilazne mehanizme javne nabave bez sudskog nadzora
Anthropic, tvrtka iza AI asistenta Claude, pokrenula je federalnu tužbu protiv Ministarstva obrane SAD-a nakon što je DoD njegove modele označio kao „rizik za lanac opskrbe“. Ta kategorija tradicionalno pripada hardverskim ranjivostima i stranim komponentama, ne softverskim modelima — što tvrtku dovodi u poziciju da brani ne samo ugovore, nego i samu logiku regulacije umjetne inteligencije.
Prema tužbi dostupnoj na CourtListeneru, Trumpova administracija pretvorila je rutinski ugovorni spor u de facto zabranu suradnje s vladinim agencijama. Anthropic procjenjuje da bi takav potez mogao koštati stotine milijuna dolara godišnje, no financijski udarac je tek simptom dubljeg problema: AI politika se provodi kroz zaobilazne mehanizme javne nabave, izvan uobičajenog sudskog nadzora.
Službeni dokumenti ne navode konkretne razloge za odluku, no stručnjaci upućuju na mješavinu sigurnosnih briga i geopolitičkih kalkulacija. Ironija je dvostruka: Anthropic, čiji je suosnivač bivši istraživač OpenAI-ja, već godinama surađuje s vladinim agencijama, uključujući i projekte za Nacionalnu sigurnosnu agenciju. Tvrtka koja je građena za sigurnu i kontroliranu primjenu AI-ja sada je sama postala meta administrativne sumnjičavosti.
Tužba se poziva na ustavne garancije slobode govora, tvrdeći da vlada ne smije koristiti ugovornu moć za kažnjavanje zaštićenog govora. To otvara presedansko pitanje: ako se AI modeli mogu klasificirati kao „rizik za lanac opskrbe“ bez transparentnog postupka, koji softverski proizvod je sljedeći?
Kad se ugovorna administracija pretvori u tehnološku zabranu
Anthropic Sues Pentagon Over AI Supply-Chain Ban📷 © Tech&Space
DoD-ova odluka stiže u trenutku intenziviranja nadzora nad generativnim modelima, posebno onima s vojnom primjenom. Američke agencije već su razvile složeni ekosustav regulacija — od izvršnih uredbi o sigurnosti AI-ja do specijaliziranih protokola za obrambene ugovore. Anthropicov slučaj pokazuje kako ti mehanizmi mogu postati i oružje političkog pritiska.
Tužba naglašava administrativnu arbitrarnost: odluka je donesena bez jasnog pravnog temelja, bez slušanja, bez mogućnosti prigovora. To nije samo proceduralna žalba — to je strategija postavljanja granica. Ako sud prihvati Anthropicov argument, uspostavit će se pravilo da AI politika mora proći kroz predvidljive regulatorne kanale, a ne kroz administrativne zaobilaznice.
Za europske promatrače slučaj je upozorenje. EU-ov regulatorni okvir za AI formalizira klasifikaciju rizika, no i Bruxelles se suočava s pitanjem kako spriječiti politizaciju tehničkih kategorija. Kad se „visoki rizik“ pretvori u politički epithef, regulatorni sustav gubi legitimitet.
Anthropic ne traži samo poništenje zabrane — traži princip. Ako vlada može preseliti AI regulaciju u domenu javne nabave, izvan sudskog nadzora, onda je cenzura samo ugovorni detalj. Tužba postaje test: hoće li pravni sustav prepoznati da se softver ne može regulirati kao čelična greda, bez obzira na administrativnu praktičnost takve klasifikacije.