Anthropic tuži Pentagon: kad AI sigurnost naleti na nacionalnu sigurnost
Openverse: Anthropic📷 Brett Jordan / flickr / CC BY 2.0
- ★Pentagon je klasificirao Anthropic kao 'rizik za opskrbni lanac', ugrožavajući ugovore vrijedne stotine milijuna dolara
- ★Kompanija tvrdi da sigurnosna ograničenja nisu samo etički stav već i komercijalna prednost
- ★37 istraživača iz Googlea, OpenAI i DeepMinda potpisalo je amicus curiae u podršci Anthropicu
Anthropic je pokrenuo sudski spor protiv američkog Ministarstva obrane nakon što ga je Pentagon klasificirao kao rizik za opskrbni lanac, ugrožavajući ugovore vrijedne stotine milijuna dolara. Srž spora leži u tome što Pentagon smatra Anthropicove sigurnosne zabrane preprekom za nacionalnu sigurnost, dok startup iza Claudea tvrdi da vlada prekoračuje ovlasti.
Kompanija zabranjuje upotrebu svoje tehnologije za autonomna oružja i masovni nadzor građana, što Pentagon vidi kao nepristojno ograničenje. Anthropic pak argumentira da ti standardi nisu tek etički performans već konkurentska prednost na tržištu gdje kupci sve više cijene transparentnost.
Spor je eskalirao kada je 37 vrhunskih istraživača iz Googlea, OpenAI i Google DeepMinda potpisalo amicus curiae u podršci Anthropicu. Među njima je i Jeff Dean, jedan od najutjecajnijih znanstvenika u industriji. Taj potez signalizira da se radi o kolektivnom interesu cijelog AI ekosustava, ne o uskom komercijalnom sukobu.
DoD-ova pozicija oslanja se na izvršnu uredbu predsjednika Bidena o sigurnoj i pouzdanoj umjetnoj inteligenciji, koja daje federalnim agencijama široka ovlaštenja za procjenu dobavljača. Anthropic tvrdi da se ta ovlaštenja ne mogu protezati do diktiranja internih sigurnosnih politika privatnih tvrtki.
Ključno pitanje koje sud mora riješiti jest može li vlada unilateralno nametnuti ograničenja kompanijama koje razvijaju AI, ignorirajući njihove vlastite protokole. Odgovor će odrediti tko kontrolira granice tehnologije.
Trideset sedam vrhunskih istraživača stalo je uz startup iza Claudea u sporu koji bi mogao odrediti tko kontrolira granice umjetne inteligencije
Openverse: Anthropic📷 Prof. Vlasis Vlasidis / wikimedia / CC BY-SA 3.0
Kako navodi izvorni izvještaj, presuda u ovom sporu postavit će presedan za cijeli AI sektor, posebno u SAD-u gdje je koncentrirana većina vodećih istraživačkih centara. Ako sud podrži Anthropic, otvorit će se prostor za tvrtke da samostalno definiraju sigurnosne standarde bez straha od gubitka federalnih ugovora. Ako pobjedi Pentagon, vlada će dobiti alat za preskakanje internih politika kompanija pod parolom nacionalne sigurnosti.
Za Silicijsku dolinu to je dvosjekli mač. Veliki igrači već balansiraju između komercijalnih interesa i regulatornog pritiska; ovakav presedan mogao bi ubrzati fragmentaciju tržišta na one koji surađuju s vladom i one koji odbijaju određene primjene.
Anthropicov pristup zanimljiv je i zbog toga što sigurnosna ograničenja promovira kao komercijalnu prednost, ne samo kao etički imperativ. To je strategija koja bi mogla privući enterprise klijente u Europi i drugdje gdje su regulacije strože, ali istovremeno zatvara vrata obrambenim ugovorima.
Istraživački konsenzus oko amicus curiae sugerira da industrija percipira ovaj spor kao egzistencijalni, ne tek proceduralni. Ako vlada može poništavati sigurnosne politike tvrtki, cijeli model samoregulacije koji Silicon Valley gradi godinama postaje labav.
Sudska odluka očekuje se u sljedećih nekoliko mjeseci. Do tada, svaka AI tvrtka s federalnim ambicijama morat će revidirati koliko daleko može ići u postavljanju vlastitih granica prije nego što postane politički neprihvatljiva.