Emocije u AI: Prvi korak ili samo marketing?

Emocije u AI: Prvi korak ili samo marketing?📷 © Tech&Space
- ★E-STEER mijenja emocije na razini reprezentacije
- ★Istraživanje razotkriva nelinearne učinke emocija
- ★Demo ≠ produkt – jaz između benchmarka i stvarnosti
Istraživači s arXiv-a objavili su studiju arXiv:2604.00005v1 koja prvi put sistematski istražuje kako emocije oblikuju ponašanje velikih jezičnih modela (LLM) i agenata. Umjesto da emocije tretiraju kao površinski stilski element – što je bio slučaj u ranijim pristupima – predlažu okvir E-STEER koji omogućuje direktnu intervenciju na razini skrivenih stanja modela.
Rezultati otkrivaju da emocije ne djeluju monotono: određeni emocionalni signali mogu poboljšati objektivno rezoniranje, ali i ugroziti sigurnost u višestupanjskim zadacima. Primjerice, studija pokazuje da modeli s „umjerenom razinom strepnje“ postižu bolje rezultate u zadacima logičkog rasuđivanja, dok prekomjerna emocionalna polarizacija dovodi do nepredvidivih ishoda. Ovo nije prvi pokušaj da se emocije ubace u AI, ali je prvi koji ih tretira kao kontroliranu varijablu umjesto kao dodatni ukras.
Ranije studije, poput Microsoftova EmotionPrompta, koristile su emocije kao podsticaj za generiranje teksta, ali bez mehanističkog uvida u njihovo djelovanje. E-STEER, s druge strane, nudi alat za precizno podešavanje emocionalnog stanja modela – što bi moglo biti ključno za primjene gdje je pouzdanost kritična, poput medicinskih ili financijskih savjetnika.

Kako E-STEER mijenja pravila igre u LLM-ima kroz emocionalnu manipulaciju📷 © Tech&Space
Kako E-STEER mijenja pravila igre u LLM-ima kroz emocionalnu manipulaciju
No, kao i uvijek u AI svijetu, postoje dva problema: benchmark i stvarnost. Studija se oslanja na sintetičke zadatke koji dobro pokazuju potencijal frameworka, ali ostaje pitanje kako će se te tehnike ponašati u stvarnim scenarijima. Primjerice, autori priznaju da emocije mogu poboljšati performanse u laboratorijskim uvjetima, ali da njihova stabilnost u dugoročnim interakcijama ostaje neprovjerena.
Tko od ovoga profitira? Prije svega, istraživačke grupe koje rade na sigurnosti AI-a i interpretabilnosti modela. E-STEER bi mogao postati standardni alat za testiranje kako emocije utječu na bias ili nepredvidivo ponašanje, što je kritično za agencije koje reguliraju AI tehnologije. S druge strane, kompanije koje nude „emocionalne“ chatbotove – poput Replice ili Character.AI – mogle bi se suočiti s pritiskom da pokažu kako njihovi modeli ne samo simuliraju emocije, već i dosljedno reagiraju na njih.
Na GitHubu još nema javnog koda za E-STEER, ali reakcije u tehničkim forumima su mješovite. Dio zajednice pozdravlja mehanistički pristup, dok drugi upozoravaju da se radi o još jednom sloju kompleksnosti koji će otežati debugiranje modela. Jedan komentator na LessWrongu primijetio je: *„Ovo zvuči kao da dodajemo još jednu dimenziju nestabilnosti u sustav koji već jedva razumijemo.““
I što se događa kada sustav napravi grešku u interpretaciji emocionalnog signala? Granice između poboljšanja i manipulacije postaju sve tanje, a odgovornost pada na one koji kontroliraju emocionalne parametre.