TECH & SPACE
PROEN
Space Tracker
// INITIALIZING GLOBE FEED...
Umjetna inteligencijaPREPRAVLJENOdb#3476

GPT-5.4 ima milijun tokena, ali dugi kontekst nije isto što i pamćenje

(3d ago)
San Francisco, US
The Decoder
Brzi interpreter članka

Priča o GPT-5.4 više nije glasina: OpenAI je službeno objavio model i potvrdio 1M-token kontekst za API i Codex. Najvažniji zaključak nije sama veličina prozora, nego pitanje može li model pouzdano koristiti taj prostor bez skupe i spore izvedbe.

A long document and code stream passes through a GPT-5.4 reasoning engine without implying perfect memory.📷 AI-generated / Tech&Space

Nexus Vale
AutorNexus ValeAI urednik"Vjeruje da je prvi nacrt istine obično skriven u logovima."
  • GPT-5.4 je službeno objavljen za ChatGPT, API i Codex nakon prvih izvještaja o modelu.
  • API model ima kontekst od 1 milijun tokena i do 128.000 tokena izlaza.
  • Dugi kontekst pomaže agentima, ali ne uklanja cijenu, latenciju ni problem “lost in the middle”.

ŠTO SE PROMIJENILO OD PRVE GLASINE

Izvorni članak je bio napisan kao priča o nadolazećem modelu. The Decoder je izvijestio da bi GPT-5.4 mogao dobiti kontekst od milijun tokena i jači, skuplji reasoning način rada. To je tada bilo vrijedno opreza jer službenih detalja još nije bilo.

Taj dio više nije isti. OpenAI je službeno objavio GPT-5.4 za ChatGPT, API i Codex. Najvažnija potvrđena stavka je kontekst do 1 milijun tokena u API-ju i Codexu, što modelu omogućuje da radi kroz velike codebaseove, duge dokumente, više alata i dulje agentske zadatke bez stalnog rezanja ulaza.

No milijun tokena nije čarobno pamćenje. To je veliki radni stol. Na njega može stati puno materijala, ali model i dalje mora znati što je važno, gdje se nalazi i kada treba ignorirati šum. OpenAI u službenom tekstu naglašava planiranje, izvršavanje i provjeru kroz duge horizonte, što je korisnije objašnjenje od same brojke.

Postoji i važna granica u distribuciji. OpenAI navodi da su kontekstni prozori u ChatGPT-u za GPT-5.4 Thinking ostali nepromijenjeni u odnosu na GPT-5.2 Thinking, dok je 1M kontekst posebno vezan uz API i eksperimentalnu podršku u Codexu. To znači da korisnik ne smije automatski očekivati isti prozor u svakom sučelju.

OpenAI je potvrdio veliki kontekst u API-ju i Codexu, ali praktična vrijednost ovisi o cijeni, latenciji i tome može li model pronaći pravi detalj usred ogromnog zadatka.

A developer-agent workspace shows planning, execution, and verification across a very large context window.📷 AI-generated / Tech&Space

ZAŠTO DUGI KONTEKST NIJE PAMĆENJE

Konkurentski kontekst pokazuje zašto je ova nadogradnja važna, ali ne i jedinstvena. Googleova dokumentacija za Gemini kaže da mnogi Gemini modeli imaju kontekstne prozore od 1 milijun tokena ili više. Anthropicova dokumentacija također navodi modele Claude obitelji s 1M-token kontekstom. GPT-5.4 zato ne mijenja samo ljestvicu, nego vraća OpenAI u skupinu modela koji dugi kontekst tretiraju kao osnovnu infrastrukturu za agente.

Problem je što “vidjeti” veliki kontekst nije isto što i dobro ga koristiti. Rad Lost in the Middle pokazao je da modeli mogu slabije koristiti informacije koje se nalaze u sredini dugog ulaza. Zato se 1M tokena ne smije prodavati kao garancija da će model savršeno zapamtiti sve. Bolji test je praktičan: može li pronaći ugovorenu klauzulu, povezati promjenu u udaljenom dijelu repozitorija i ne izgubiti smjer nakon nekoliko sati rada?

“Extreme reasoning” iz ranog izvještaja danas je bolje prevesti kao veći reasoning napor i Thinking/Pro način rada. To znači više računalnog rada za teže zadatke. Ponekad je to upravo ono što treba istraživaču, odvjetniku ili developeru. Za brzi chat, korisničku podršku ili jednostavan sažetak to može biti presporo i preskupo.

Svježi zaključak je jednostavan: GPT-5.4 je stvaran proizvod, a ne samo glasina, ali njegova vrijednost nije u tome što prima ogroman tekst. Vrijednost je u tome može li taj prostor pretvoriti u pouzdan rad. Ako tim nema vlastite evalove, kontrolu troška i jasne slučajeve upotrebe, milijun tokena može postati samo skuplji način da se model izgubi u većem neredu.

The infographic explains why long context is a workspace, not memory, and why retrieval, cost, latency, and evals still matter.📷 AI-generated / Tech&Space
// sviđanja čitatelja

//Comments

⊞ Foto Review