TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijano db_id

Automatsko lomljenje LLM-ova: tko je sljedeći na meti?

(4w ago)
Stanford, United States
arXiv NLP
Automatsko lomljenje LLM-ova: tko je sljedeći na meti?

Automatsko lomljenje LLM-ova: tko je sljedeći na meti?📷 © Tech&Space

  • Adaptivni napad na LLM-ove preko optimizacije upita
  • DSPy kao oruđe za automatizirano zaobilaženje sigurnosnih filtera
  • Benchmarkovi ne drže korak s realnim prijetnjama

Kada se o sigurnosti velikih jezikovnih modela govori, većina proizvođača voli istaknuti brojeve poput 99% blokiranih štetnih upita ili nula uspješnih jailbreakova u testiranju. Problem je što te brojeve često generiraju statistički mrtvi skupovi fiksnih, unaprijed definiranih upita — kao da bi se sigurnost bankovnog trezora testirala tako što biste ga udarali samo jednim čekićem, uvijek istim kutem. Novija studija na arXiv-u (2603.19247v1) pokazuje da je pravi napad dinamičan: napadači iterativno prerađuju upite koristeći tehnike crne kutije, poput one koje nudi DSPy — alata koji je originalno namijenjen optimizaciji performansi, a sada služi kao poligon za automatizirano zaobilaženje sigurnosnih barijera. Autori su primijenili tri metode (gradijentno usmjerenu pretragu, genetske algoritme i reinforcement learning) i pokazali da čak i blago modificirani upiti mogu prevariti modele u 40-60% slučajeva — u usporedbi s gotovo nultom uspješnošću kod standardnih testova. Ovdje nije riječ o teorijskom scenariju. Riječ je o realnoj ranjivosti koja se već eksploatira: dio open-source zajednice primjećuje porast automatiziranih skripti za generiranje jailbreak-ova koje korisnici dijelje na forumima poput LessWrong ili specijaliziranih Discord servera. Čak i ako proizvođači poprave poznate rupe, adaptivni pristup znači da je trka mačke i miša beskonačna — a troškovi održavanja sigurnosti rastu eksponencijalno.

Demo protiv deploymenta: zašto su fiksni testovi sigurnosti beskorisni

Demo protiv deploymenta: zašto su fiksni testovi sigurnosti beskorisni📷 © Tech&Space

Demo protiv deploymenta: zašto su fiksni testovi sigurnosti beskorisni

Pravi problem nije samo u tome što modele može preluditi, već u tome što tržište sigurnosnih rješenja za LLM-ove još uvijek funkcionira na principu checklista. Proizvođači poput Anthropica ili Mistrala prodaju sigurnosne slojeve kao dodatnu vrijednost, ali ti slojevi su često trenirani na istim starijim skupovima podataka koje napadači već znaju zaobići. Studija eksplicitno ističe da čak i najnoviji modeli (poput onih iz ožujskog LLM leaderboarda) padaju na adaptivne napade — što znači da je marketing sigurnosti možda upitniji nego što se čini. Za razliku od uobičajenih red-team vježbi koje koriste ručno napisane upite, ovdje je ključna automatizacija: napadač ne mora biti stručnjak za NLP da bi generirao efektivne jailbreake. To mijenja dinamiku — pristupačnost alata znači da će broj napada rasti, a trošak obrane postati neodrživ za manja poduzeća. Dio razvojne zajednice već eksperimentira s integriranjem ovakvih metoda u postojeće prompt injection okvire, što sugerira da će se tržište alata za napad razvijati brže od tržišta obrane. Najironičnije je što se radi o istim tehnikama koje korporacije koriste za fine-tuning svojih modela — samo što ih ovdje primjenjuje druga strana. To možda zvuči kao tehnički detalj, ali u stvarnosti je fundamentalno pitanje ekonomike sigurnosti: tko će platiti cijenu stalne adaptacije?

Jedno od mogućih rješenja je razvoj sigurnosnih protokola koji će se kontinuirano ažurirati i poboljšavati. To će omogućiti proizvođačima da ostanu korak ispred napadača i da zaštite svoje modele od eksploatacije. Međutim, to će zahtijevati značajna ulaganja u istraživanje i razvoj.

LLMDeploymentSecurity Testing

//Comments