Pentagon stavlja Anthropic na crnu listu: AI etika sudara se s vojnom logistikom
Pentagon flags Anthropic as national risk over military AI ban📷 AI-generated / Tech&Space editorial visual
- ★DoD je Anthropicu dodijelio status rizika za opskrbne lance zbog odbijanja ugovornih odredbi koje bi omogućile 'bilo kakvu zakonitu svrhu'
- ★Ministarstvo upozorava da bi tvrtka mogla jednostrano promijeniti ponašanje modela ako smatra da su njezine etičke granice ugrožene
- ★Sukob otkriva fundamentalnu napetost između sigurnosnih klauzula nove administracije i korporativnih AI sigurnosnih obveza
Sjevernoamerička vojska povlači odlučnu crtu u pijesku umjetne inteligencije. U službenom odgovoru na tužbu kompanije Anthropic, američko Ministarstvo obrane (DoD) jasno je stavilo do znanja da bi daljnji pristup njezinoj infrastrukturi za ratovanje predstavljao 'neprihvatljiv rizik' za nacionalnu sigurnost.
Ministarstvo tvrdi da bi AI modeli Anthropica mogli biti manipulirani ili onesposobljeni tijekom neprijateljstava, što bi direktno ugrozilo opskrbne lance Pentagonove ratne mašinerije. Anthropic je pokrenuo sudski postupak nakon što mu je DoD dodijelio status 'rizika za opskrbne lance' zbog odbijanja ugovornih odredbi koje bi omogućile upotrebu njegovih modela za masovni nadzor i razvoj autonomnog oružja.
Izvještaj ministarstva posebno naglašava zabrinjavajuću mogućnost da kompanija, po vlastitom nahođenju, promijeni ponašanje svojih modela ako procijeni da su njezine etičke 'crvene linije' ugrožene. Time DoD zapravo postavlja ključno pitanje: može li se Anthropic uopće smatrati pouzdanim partnerom u osjetljivim vojnim projektima kada njegova korporativna filozofija može nadjačati operativne potrebe?
Pentagonova logika prožima se širem kontekstu sigurnosnih protokola nove administracije.
Kad 'crvene linije' postanu sigurnosni rizik
Article image📷 © Tech&Space
Izvještaj detaljno objašnjava kako je ministar Pete Hegseth u ugovore o AI uslugama ugradio klauzulu koja instituciji omogućuje korištenje tehnologije za 'svrhe u skladu sa zakonom'. Time se praktički postavlja temeljna dilema o odgovornosti i kontroli u razvoju vojne AI infrastrukture — tko zapravo drži ključeve?
Ova praksa otvara duboke implikacije za cijelu industriju. Kompanije poput Microsofta, Googla i OpenAI već su javno podržale Anthropic u njegovoj tužbi, što sugerira da se radi o širem obrascu otpora vojnoj instrumentalizaciji generativnih modela. No istovremeno, Pentagonovo upozorenje da bi tvrtka mogla jednostrano promijeniti ponašanje modela postavlja neugodno pitanje: što znači 'sigurnost' kada je AI proizvod podložan moralnom veto-u svog stvaratelja?
Sukob otkriva fundamentalnu napetost koju industrija dosad nije željela prepoznati. Sigurnosne klauzule Trumpove administracije sudaraju se s korporativnim AI sigurnosnim obvezama koje su same sebe proglasile zaštitnicima 'odgovornog razvoja'. Rezultat je pravni i logistički kaos u kojem nijedna strana ne može potpuno pobijediti bez da razori vlastitu poziciju.
Za hrvatske i europske promatrače, slučaj nudi hladno upozorenje: ubrzano usvajanje AI u kritičnoj infrastrukturi bez jasnih mehanizama kontinuiteta može stvoriti ovisnost o entitetima čija se lojalnost ne može garantirati.