AI sigurnost u robotici mora preživjeti fiziku, ne samo promptove
Editorial visualization for AI robotics safety has to survive physics, not just prompts📷 AI-generated / Tech&Space
- ★Rad u Science Robotics tvrdi da su AI sigurnosni okviri uglavnom građeni za tekst i slike, ne za fizičke robote
- ★Jailbreak koji kod chatbota proizvodi loš odgovor kod robota može proizvesti opasan pokret
- ★Autori predlažu jasnija pravila, sigurnosne kontrolne točke i bolje razumijevanje konteksta
ZAŠTITA ZA PIKSELE NIJE ZAŠTITA ZA AKTUATORE
Istraživači s Penn Engineeringa, Carnegie Mellona i Oxforda, prema TechXploreovu izvještaju, upozoravaju da se AI sigurnost predugo ponašala kao da se svaka pogreška događa na ekranu. Tekst i slike imaju posljedice, ali robot dodaje masu, moment, hvataljku, kotač i čovjeka koji stoji preblizu.
Zato stara Asimovljeva rečenica o robotu koji ne smije ozlijediti čovjeka ostaje književno pravilo, ne inženjerska specifikacija. U stvarnom sustavu treba znati što se događa kada je naredba dvosmislena, kada okolina nije ona iz demonstracije ili kada korisnik pokušava zaobići ograničenje.
Najopasniji prijenos dolazi iz jailbreak tehnika. Kod chatbota takav napad može proizvesti uvredljiv, netočan ili zabranjen tekst. Kod robota isti obrazac može otvoriti put prema neočekivanom pokretu. Razlika nije moralna nijansa, nego fizika: izlaz modela više nije samo rečenica, nego signal koji se može pretvoriti u silu.
Autori zato problem ne tretiraju kao pitanje jednog boljeg prompta. Kritika je strukturna: sigurnosni okviri koji su građeni za digitalne sustave ne mogu se samo preseliti u robotičku platformu i proglasiti dovoljnima. Robot treba zaštitu prije nego naredba dođe do aktuatora, ne samo naknadno objašnjenje zašto je odluka bila razumna.
Penn, CMU i Oxford upozoravaju da zaštite iz svijeta chatbotova pucaju čim model dobije aktuator, moment i ljude u blizini.
Secondary editorial visualization for AI robotics safety has to survive physics, not just prompts📷 AI-generated / Tech&Space
TRI SLOJA OBRANE
Predloženi odgovor je namjerno neuglađen: tri obrambene linije umjesto jedne velike teorije. Prva traži eksplicitnija pravila ponašanja za AI sustave. Ne opće etičke parole, nego granice koje sustav može provjeriti u konkretnoj situaciji.
Druga linija su sigurnosne kontrolne točke koje zaustavljaju potencijalno opasne komande prije fizičkog izvršenja. U robotici je to zdrav instinkt. Redundancija nije znak slabog dizajna, nego priznanje da će senzori, modeli i ljudi prije ili kasnije proizvesti neuredan slučaj.
Treća linija je razumijevanje konteksta. Robot mora razlikovati laboratorijsku demonstraciju od tvorničke smjene, šalu od stvarne naredbe i privremenu prepreku od objekta koji smije pomaknuti. To je puno teže od pisanja pravila, ali bez toga robot ostaje stroj koji formalno slijedi upute i praktično promašuje situaciju.
Najkorisniji zaključak rada nije da su AI roboti neizbježno opasni. Zaključak je precizniji: sigurnost se ne može posuditi iz chatbotova i zalijepiti na zglob robota. Kad model dobije tijelo, evaluacija mora dobiti isto toliko stvarnosti.