RAG koji pamti postupke: 32 milijuna modula protiv izoliranog razmišljanja

RAG koji pamti postupke: 32 milijuna modula protiv izoliranog razmišljanja📷 © Tech&Space
- ★32 milijuna kompaktnih proceduralnih jedinica iz prethodnih rješenja
- ★19,2% poboljšanja na matematičkim benchmarkovima — ali koliko vrijedi u produkciji?
- ★Meta i Google već testiraju slične pristupe, ali tko ima prednost?
Novo istraživanje iz arXiv-a ne predlaže još jedan 'pametan' model, već sustav koji krađe od sebe samog – doslovno. Reasoning Memory, kako ga autori nazivaju, nije novi RAG s pamćenjem, već baza od 32 milijuna proceduralnih modula iz prethodnih razmišljanja: kako preformulirati problem, odabrati pristup ili povući korak unatrag kada model zaglavi. To nije samo 'pamćenje odgovora', već pamćenje procesa – što je, ironično, ono što ljudima najčešće nedostaje kada rješavaju isti tip zadataka po stoti put.
Ključna razlika u odnosu na prethodne RAG-ove? Ovi moduli nisu statični isječci teksta, već dinamičke subrutine koje model može reaktivirati ovisno o kontekstu. Na primjer: ako model naiđe na matematički problem s višekoraknim rješenjem, umjesto da počne od nule, 'sjeća' se kako je riješio sličan dio problema u prošlosti – i to ne kao gotov odgovor, već kao postupak. Autori tvrde da je to donijelo 19,2 % poboljšanja na matematičkim benchmarkovima i 7,9 % na znanstvenim zadacima.
Ali, kao i uvijek, brojevi na papiru i performanse u produkciji dvije su stvarno različite priče. Što je zanimljivije od samog rada jest tko ga već koristi. Meta i Google eksperimentiraju s sličnim pristupima u svojim internim modelima, ali ovdje je ključno pitanje: koliko je ovo skalabilno izvan kontroliranih benchmarkova? Proceduralno znanje korisno je – sve dok ne naiđete na problem koji nije 'sličan' ničemu što je model prije vidio. A to je, naravno, upravo trenutak kada bi vam trebalo novo proceduralno znanje, a ne reciklirano.

Demo nasuprot deploymenta: zašto je ovo više od još jednog RAG-a s pamćenjem📷 © Tech&Space
Demo nasuprot deploymenta: zašto je ovo više od još jednog RAG-a s pamćenjem
Hajp oko 'pametnijih' modela obično zaboravlja na jednu stvar: većina realnih problema nije benchmark. Kada korisnik pita chatbot kako popraviti kvar rasvjetnog sustava, a odgovor uključuje pet koraka od kojih su tri nepotpuna, proceduralno pamćenje može biti blagoslov ili prokletstvo. Ako je model naučio 'pogrešan' postupak iz prethodnih iteracija, sada će ga ponavljati – s sistematskom preciznošću.
Autori kažu da su riješili ovaj problem 'verifikacijskim slojem', ali detalji o tome kako funkcionira u dinamičnim okruženjima ostaju u sjeni. Još jedan ključni detalj: tko zapravo kontrolira ovu bazu znanja? 32 milijuna modula nisu mala stvar – i ako se pokažu korisnima, postat će strateški resurs. Trenutno je kod otvoren, ali što će se dogoditi kada neke tvrtke počnu graditi zatvorene ekosustave oko svojih proceduralnih baza? Hugging Face već ima slične inicijative, a startupi poput Vectara eksperimentiraju s komercijalizacijom proceduralnog RAG-a.
Prava bitka neće biti o točnosti modela, već o tome tko posjeduje 'pamćenje'. Za razliku od većine AI radova koji obećavaju 'revoluciju', ovaj barem ima konkretan mehanizam – ali i konkretna ograničenja. Proceduralno znanje korisno je dok god problemi ostaju slični. Čim uđete u domene gdje su zadaci jedinstveni (npr. kreativno pisanje ili strategijsko planiranje), prednost se topi. To možda zvuči kao tehnički detalj, ali jest upozorenje: ako se ispostavi da je ovo još jedan alat optimiziran za benchmarkove, a ne za stvarni svijet, bit ćemo svjedoci još jednog AI ciklusa – gdje demo postane proizvod, a proizvod postane razočaranje.
Razvoj ovog modela otvara nova pitanja o etici i kontrolama u razvoju umjetne inteligencije. Kako se tehnologija nastavlja razvijati, važno je razmotriti kako će se osigurati da se ona koristi na odgovoran način. To uključuje pitanja kontrole, sigurnosti i transparentnosti.