Napad na Apple Intelligence otkriva slabosti AI zaštite
Napad na Apple Intelligence otkriva slabosti AI zaštite📷 © Tech&Space
- ★76% uspješnosti u 100 testnih probnih promptova
- ★Unicode RIGHT-TO-LEFT i Neural Exec kombinacija napada
- ★Hardverirana zaštita od listopada 2025. u iOS 26.4
Istraživači su detaljno objasnili kako su uspješno zaobišli zaštitne mehanizme Apple Intelligence koristeći napad tipa prompt injection. Napad je kombinirao dvije strategije: Unicode RIGHT-TO-LEFT OVERRIDE i Neural Exec kako bi se prevara ulazno-izlaznih filtera AI modela.
Prema podacima, eksperiment je postigao uspješnost od 76% na 100 slučajno odabranih probnih promptova, što ukazuje na ozbiljne pukotine u zaštitnim slojevima. Apple je nakon prijave u listopadu 2025. pojačao sigurnosne mehanizme u najnovijim ažuriranjima iOS 26.4 i macOS 26.4.
Ova praksa otkriva kako napadači mogu manipulirati lokalnim velikim jezičnim modelima unatoč hardverskim ograničenjima, što postavlja pitanja o robusnosti zaštite u AI sustavima koji rade u realnom vremenu. Iako Apple ne otkriva detalje internog rada svog modela iz sigurnosnih razloga, istraživači su naglasili kako je napad ukazao na fundamentalne slabosti u načinu na koji se obrada ulaznih podataka integrira s daljnjom generacijom sadržaja.
Ovaj scenarij postavlja temelje za daljnja istraživanja sigurnosnih protokola u AI sustavima koji se koriste na korisničkim uređajima.
Istraživači su otkrili ranjivost u filterima ulaza i izlaza AI modela📷 © Tech&Space
Istraživači su otkrili ranjivost u filterima ulaza i izlaza AI modela
Napad je također izazvao reakcije u stručnoj zajednici, gdje se raspravlja o tome koliko su takvi mehanizmi zaštite dovoljni u uvjetima napredne manipulacije inputa. Dio stručnjaka vidi ovaj incident kao rani signal za potrebu revizije postojećih standarda zaštite u AI modelima koji se integriraju u svakodnevnu upotrebu.
Appleov odgovor kroz ažuriranja operativnih sustava ukazuje na trend brze reakcije na otkrivene ranjivosti u AI zaštiti. Ipak, stručnjaci upozoravaju kako će napadači nastaviti razvijati sofisticiranije metode zaobilaska zaštite, što zahtijeva kontinuirano ažuriranje i unaprjeđenje postojećih mehanizama.
Ovaj slučaj također otkriva kako se sigurnost AI modela mora promatrati kroz višedimenzionalni pristup, gdje se zaštita ne može oslanjati samo na hardverske ili softverske barijere već i na kontinuirano testiranje otpornosti na napade. Iako istraživači tvrde kako je Appleov odgovor bio brz i efikasan, pitanje ostaje koliko su duboke promjene koje su implementirane i koliko će dugoročno moći odoljeti novim napadima.
Appleov model, kao dio Apple Intelligence, trenira se i koristi lokalno na uređajima, što smanjuje rizik od tradicionalnih cloud-based napada, ali otvara nova pitanja vezana uz lokalnu manipulaciju ulaza i izlaza.
Sigurnost ovakvih sustava nije statičan cilj već kontinuirani proces u kojem se svako otkriće ranjivosti mora shvatiti kao prilika za unaprjeđenje. Ovo otkriće postavlja odgovornost i na istraživačku zajednicu i na tvrtke koje razvijaju AI modele da zajedno rade na standardima koji će osigurati pouzdaniji i otporniji AI okoliš. U konačnici, ovo otkriće će biti važan korak u razvoju sigurnijih AI sustava.