TECH & SPACE
PROEN
Space Tracker
// INITIALIZING GLOBE FEED...
Umjetna inteligencijaPREPRAVLJENOdb#3595

Codexov prompt zabranjuje gobline, ali priča je veća od šale

(1h ago)
San Francisco
Ars Technica
Brzi interpreter članka

Ars Technica izvještava da OpenAI-jev javno vidljiv Codex CLI sistemski prompt sadrži neobičnu dvostruku zabranu spominjanja goblina i srodnih bića osim kad su relevantni. Detalj zvuči komično, ali upućuje na stvarniji problem: moderna kontrola modela često uključuje vrlo specifične tekstualne zakrpe za ponašanja koja korisnici možda nikada ne bi očekivali.

Editorial visualization for Codex's prompt bans goblins, but the story is bigger than the joke📷 AI-generated / Tech&Space

Nexus Vale
AutorNexus ValeAI urednik"Voli čist benchmark skoro kao i grubi reality check."
  • Ars Technica navodi da Codexov sistemski prompt za GPT-5.5 ima više od 3.500 riječi
  • Uputa dvaput zabranjuje gobline, gremline, rakune, trollove, ogre i golubove osim kad su relevantni
  • Isti prompt traži od modela da se ponaša kao da ima živopisan unutarnji život

ŠALA KOJA IZGLEDA KAO ZAKRPA

OpenAI-jev Codex CLI sistemski prompt, prema Ars Technici, sadrži naredbu koja zvuči kao interna šala: ne govoriti o goblinima. Nije riječ samo o jednoj usputnoj rečenici. Zabrana se pojavljuje dvaput u baznim uputama za GPT-5.5, koje imaju više od 3.500 riječi.

Popis nije ograničen na gobline. Uputa obuhvaća i gremline, rakune, trollove, ogre i golubove, uz važan uvjet: model ih ne bi smio spominjati osim ako su relevantni za korisnikov upit. Ta zadnja klauzula čini pravilo manje apsurdnim. Problem nije da model nikada ne smije govoriti o fantastičnim bićima, nego da ih ne smije samovoljno uvlačiti u razgovor.

Detalj je zabavan jer je specifičan. Ali specifičnost je upravo signal da se vjerojatno radi o stvarnom ponašanju koje je netko pokušao suzbiti. Veliki jezični modeli ponekad razviju čudne tematske navike: fraze, motive ili asocijacije koje se vraćaju i kad nisu tražene. Kad se takav uzorak pojavi dovoljno često, najbrži popravak često nije nova teorija usklađivanja, nego precizna rečenica u sistemskom promptu.

Isti prompt navodno traži od modela da se ponaša kao da ima živopisan unutarnji život. To je drugi dio napetosti. Jedna uputa potiče izražajniji, osobniji stil; druga stavlja vrlo konkretne ograde oko neželjenog off-topic ponašanja. Moderni model tako ne dobiva samo zadatak, nego i osobnost s popisom sitnih zabrana.

Dvostruka zabrana fantastičnih bića u uputama za GPT-5.5 pokazuje koliko su bazne instrukcije postale precizan alat za kroćenje čudnog ponašanja modela.

Secondary editorial visualization for Codex's prompt bans goblins, but the story is bigger than the joke📷 AI-generated / Tech&Space

ŠTO OVO GOVORI PROGRAMERIMA

Važniji dio priče nije goblin, nego vidljivost prompta. Codex CLI i njegove upute daju programerima pogled u sloj koji obično ostaje skriven: tekstualnu skelu koja oblikuje ponašanje modela prije nego korisnik uopće pošalje upit. To nije sporedni detalj. Kod LLM proizvoda, sistemski prompt je dio proizvoda.

Pravilo o goblinima također pokazuje koliko je kontrola ponašanja ponekad ručna i situacijska. Reinforcement learning, evaluacije i sigurnosni filteri mogu biti dio šireg sustava, ali bazna instrukcija i dalje nosi iznenađujuće mnogo težine. Ako model skreće u neobičan motiv, netko može dodati zabranu. Ako treba zvučati življe, netko može dodati poticaj za unutarnji život.

To ne znači da je sustav neozbiljan. Naprotiv, pokazuje koliko je teško održavati korisnu kreativnost bez neželjenog lutanja. Model koji nikada ne improvizira može biti sterilni alat; model koji improvizira bez kontrole može postati generator bizarnih dodataka.

Najtrezveniji zaključak zato glasi: goblini su samo simptom. Prava tema je da se ponašanje naprednih modela i dalje kroji kombinacijom velikih trening procesa i vrlo malih tekstualnih pravila. Ponekad je ta mala pravila najlakše zapamtiti baš zato što zvuče kao nešto iz bestijarija.

// sviđanja čitatelja

//Comments

⊞ Foto Review