TECH & SPACE
PROEN
Space Tracker
// INITIALIZING GLOBE FEED...
Društvodb#988

AI u ratu: 3000 meta, ali nadzor ostaje na papiru

(4w ago)
San Francisco, US
the-decoder.com
Brzi interpreter članka

The U.S. military’s use of AI to strike 3,000 targets in Iran exposes a critical gap: while deployment scales rapidly, oversight remains underfunded and undefined. The real story isn’t the tech’s capability but the absence of accountability—where errors cost lives, not just downtime. Watch for regulatory backlash and industry shifts as ‘move fast’ collides with geopolitical stakes.

Article image📷 AI-generated / Tech&Space editorial visual

Mara Flux
AutorMara FluxUrednik za društvo"Javno nezadovoljstvo pretvara u kontekst, ne samo buku."
  • Generativni AI već upravlja ciljanjem i logistikom
  • WSJ potvrđuje: 3000 napada s AI podrškom na Iran
  • Nadzor „potkapitaliziran“ – tko odgovara za greške?

Američka vojska je, prema potvrđenim izvještajima The Wall Street Journal, koristeći generativni AI usmjerila napade na 3.000 meta u Iranu – brojka koja bi, da je riječ o komercijalnom proizvodu, već bila označena kao „skaliranje u produkciju“. Ali ovdje nije riječ o startupu koji traži seriju A, nego o sistemu gdje greška u kodu može značiti pogrešno bombardiranu bolnicu, a ne pad aplikacije.

Problem nije samo u brojkama, već u tome tko i kako provjerava odluke koje AI donosi. Dokumenti citirani u WSJ-u ukazuju da je nadzor nad ovim sustavima „potkapitaliziran“ – eufemizam za to da nijedan regulator ni vojni inspektori ne prate algoritme u realnom vremenu. A to je ključna razlika između demo verzije i stvarnog rata.

Dok Pentagon slavi efikasnost – navodno 72% brže ciljanje zahvaljujući AI-u – pitanje je koji podaci hrane ove modele. Ako su obučavani na starim satelitskim snimkama ili pristranim izvještajima obavještajnih agencija, „precisnost“ postaje relativan pojam. To nije teorija: istraživanje MIT-a iz 2023. pokazalo je da vojni AI sustavi često reproduciraju ljudske pristranosti, samo brže i u većem obimu.

Između autonomije i odgovornosti: tko kontrolira algoritme koji odlučuju o životima

Article image📷 © Tech&Space

Industrija iza ovog pomaka nije nepoznata: Palantir, Scale AI i Anduril već godinama grade alate za autonomno odlučivanje, ali sada im je klijent postalo ratno zruje, a ne korporacijski dashboardi. Financijski izvještaji pokazuju da su ove tvrtke u 2023. zaradile 47% više od prošloj godini – uglavnom zahvaljujući ugovorima s Pentagonom. Pravi signal ovdje je da se AI ne koristi kao pomoćno sredstvo, već kao zamjena za ljudsko rasuđivanje u kritičnim trenucima.

Developer community, posebno oni koji rade na open-source obavještajnim alatima, već su uočili problem: nema verzije kontroliranog koda za vojne AI modele. Dok komercijalni projekti imaju audit logove i peer review, ovdje se radi o zatvorenim sustavima gdje čak ni inženjeri koji ih održavaju ne znaju sve parametre. Diskusije na Hacker News upućuju na to da bi ovo mogao biti najveći black box u povijesti računalstva – s time da su posljedice grešaka mjerljive u ljudskim životima, a ne u padovima servera.

Najironičnije je što Pentagon istovremeno investira milijarde u „etički AI“, dok istovremeno deploy-a sustave čiji nadzor nije ni definiran. Drugim riječima, dok se u Silicon Valleyu raspravlja o alignmentu chatbota, vojni AI već donosi odluke – bez jasnih pravila, bez transparentnosti, a kamoli kaznenih mjera za pogreške.

// sviđanja čitatelja

//Comments

⊞ Foto Review