TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#3202

Napad na Apple Intelligence otkriva slabosti AI zaštite

(2d ago)
Cupertino, United States
9to5mac.com

Napad na Apple Intelligence otkriva slabosti AI zaštite📷 © Tech&Space

  • 76% uspješnosti u 100 testnih probnih promptova
  • Unicode RIGHT-TO-LEFT i Neural Exec kombinacija napada
  • Hardverirana zaštita od listopada 2025. u iOS 26.4

Istraživači su detaljno objasnili kako su uspješno zaobišli zaštitne mehanizme Apple Intelligence koristeći napad tipa prompt injection. Napad je kombinirao dvije strategije: Unicode RIGHT-TO-LEFT OVERRIDE i Neural Exec kako bi se prevara ulazno-izlaznih filtera AI modela.

Prema podacima, eksperiment je postigao uspješnost od 76% na 100 slučajno odabranih probnih promptova, što ukazuje na ozbiljne pukotine u zaštitnim slojevima. Apple je nakon prijave u listopadu 2025. pojačao sigurnosne mehanizme u najnovijim ažuriranjima iOS 26.4 i macOS 26.4.

Ova praksa otkriva kako napadači mogu manipulirati lokalnim velikim jezičnim modelima unatoč hardverskim ograničenjima, što postavlja pitanja o robusnosti zaštite u AI sustavima koji rade u realnom vremenu. Iako Apple ne otkriva detalje internog rada svog modela iz sigurnosnih razloga, istraživači su naglasili kako je napad ukazao na fundamentalne slabosti u načinu na koji se obrada ulaznih podataka integrira s daljnjom generacijom sadržaja.

Ovaj scenarij postavlja temelje za daljnja istraživanja sigurnosnih protokola u AI sustavima koji se koriste na korisničkim uređajima.

Istraživači su otkrili ranjivost u filterima ulaza i izlaza AI modela📷 © Tech&Space

Istraživači su otkrili ranjivost u filterima ulaza i izlaza AI modela

Napad je također izazvao reakcije u stručnoj zajednici, gdje se raspravlja o tome koliko su takvi mehanizmi zaštite dovoljni u uvjetima napredne manipulacije inputa. Dio stručnjaka vidi ovaj incident kao rani signal za potrebu revizije postojećih standarda zaštite u AI modelima koji se integriraju u svakodnevnu upotrebu.

Appleov odgovor kroz ažuriranja operativnih sustava ukazuje na trend brze reakcije na otkrivene ranjivosti u AI zaštiti. Ipak, stručnjaci upozoravaju kako će napadači nastaviti razvijati sofisticiranije metode zaobilaska zaštite, što zahtijeva kontinuirano ažuriranje i unaprjeđenje postojećih mehanizama.

Ovaj slučaj također otkriva kako se sigurnost AI modela mora promatrati kroz višedimenzionalni pristup, gdje se zaštita ne može oslanjati samo na hardverske ili softverske barijere već i na kontinuirano testiranje otpornosti na napade. Iako istraživači tvrde kako je Appleov odgovor bio brz i efikasan, pitanje ostaje koliko su duboke promjene koje su implementirane i koliko će dugoročno moći odoljeti novim napadima.

Appleov model, kao dio Apple Intelligence, trenira se i koristi lokalno na uređajima, što smanjuje rizik od tradicionalnih cloud-based napada, ali otvara nova pitanja vezana uz lokalnu manipulaciju ulaza i izlaza.

Sigurnost ovakvih sustava nije statičan cilj već kontinuirani proces u kojem se svako otkriće ranjivosti mora shvatiti kao prilika za unaprjeđenje. Ovo otkriće postavlja odgovornost i na istraživačku zajednicu i na tvrtke koje razvijaju AI modele da zajedno rade na standardima koji će osigurati pouzdaniji i otporniji AI okoliš. U konačnici, ovo otkriće će biti važan korak u razvoju sigurnijih AI sustava.

Apple Intelligence security vulnerabilitiesAI input/output filter exploitsAI model security researchApple AI system weaknessesPrivacy risks in AI assistants

//Comments