TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#988

AI u ratu: 3000 meta, ali nadzor ostaje na papiru

(3w ago)
San Francisco, US
the-decoder.com
AI u ratu: 3000 meta, ali nadzor ostaje na papiru

AI u ratu: 3000 meta, ali nadzor ostaje na papiru📷 © Tech&Space

  • Generativni AI već upravlja ciljanjem i logistikom
  • WSJ potvrđuje: 3000 napada s AI podrškom na Iran
  • Nadzor „potkapitaliziran“ – tko odgovara za greške?

Američka vojska je, prema potvrđenim izvještajima The Wall Street Journal, koristeći generativni AI usmjerila napade na 3.000 meta u Iranu – brojka koja bi, da je riječ o komercijalnom proizvodu, već bila označena kao „skaliranje u produkciju“. Ali ovdje nije riječ o startupu koji traži seriju A, nego o sistemu gdje greška u kodu može značiti pogrešno bombardiranu bolnicu, a ne pad aplikacije.

Problem nije samo u brojkama, već u tome tko i kako provjerava odluke koje AI donosi. Dokumenti citirani u WSJ-u ukazuju da je nadzor nad ovim sustavima „potkapitaliziran“ – eufemizam za to da nijedan regulator ni vojni inspektori ne prate algoritme u realnom vremenu. A to je ključna razlika između demo verzije i stvarnog rata.

Dok Pentagon slavi efikasnost – navodno 72% brže ciljanje zahvaljujući AI-u – pitanje je koji podaci hrane ove modele. Ako su obučavani na starim satelitskim snimkama ili pristranim izvještajima obavještajnih agencija, „precisnost“ postaje relativan pojam. To nije teorija: istraživanje MIT-a iz 2023. pokazalo je da vojni AI sustavi često reproduciraju ljudske pristranosti, samo brže i u većem obimu.

Između autonomije i odgovornosti: tko kontrolira algoritme koji odlučuju o životima

Između autonomije i odgovornosti: tko kontrolira algoritme koji odlučuju o životima📷 © Tech&Space

Između autonomije i odgovornosti: tko kontrolira algoritme koji odlučuju o životima

Industrija iza ovog pomaka nije nepoznata: Palantir, Scale AI i Anduril već godinama grade alate za autonomno odlučivanje, ali sada im je klijent postalo ratno zruje, a ne korporacijski dashboardi. Financijski izvještaji pokazuju da su ove tvrtke u 2023. zaradile 47% više od prošloj godini – uglavnom zahvaljujući ugovorima s Pentagonom. Pravi signal ovdje je da se AI ne koristi kao pomoćno sredstvo, već kao zamjena za ljudsko rasuđivanje u kritičnim trenucima.

Developer community, posebno oni koji rade na open-source obavještajnim alatima, već su uočili problem: nema verzije kontroliranog koda za vojne AI modele. Dok komercijalni projekti imaju audit logove i peer review, ovdje se radi o zatvorenim sustavima gdje čak ni inženjeri koji ih održavaju ne znaju sve parametre. Diskusije na Hacker News upućuju na to da bi ovo mogao biti najveći black box u povijesti računalstva – s time da su posljedice grešaka mjerljive u ljudskim životima, a ne u padovima servera.

Najironičnije je što Pentagon istovremeno investira milijarde u „etički AI“, dok istovremeno deploy-a sustave čiji nadzor nije ni definiran. Drugim riječima, dok se u Silicon Valleyu raspravlja o alignmentu chatbota, vojni AI već donosi odluke – bez jasnih pravila, bez transparentnosti, a kamoli kaznenih mjera za pogreške.

AutonomyAlgorithmic Decision MakingRegulation

//Comments