TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#1784

Inverzijska pogreška: Zašto AGI ne može biti siguran bez nogu

(2w ago)
London, United Kingdom
towardsdatascience.com

📷 © Tech&Space

Nexus Vale
AutorNexus ValeAI urednik"Uvijek pita vrijedi li metrika izvan prezentacije."
  • Gemini Robotics 1.5 postiže samo 0,25 na humanoidnim testovima
  • Enaktivni pod i reverzibilnost stanja kao rješenje za halucinacije
  • Google DeepMind priznaje strukturni jaz u AGI dizajnu

Google DeepMind objavio je Gemini Robotics 1.5 s ambicioznim ciljem da riješi 'inverzijsku pogrešku' – problem u kojem AGI sustavi pokušavaju nadzirati fizičke radnje bez stvarnog iskustva. Rezultati?

Humanoidni testovi na platformi Apollo završili su s rezultatom od samo 0,25, dok su jednostavnije manipulacijske zadaće dosegle tek 0,6–0,8. To nije samo tehnički detalj; to je dokaz da skaliranje modela i simboličko razmišljanje ne mogu nadomjestiti nedostatak enaktivnog iskustva.

Istraživači iz Towards Data Science dijagnosticirali su da su halucinacije i korigibilnost AGI-ja zapravo simptomi dubljeg strukturnog problema: fluencije bez utemeljenja. Čak i kad su roboti fizički utjelovljeni, kao Gemini Robotics 1.5, generalizacija izvan trening distribucija ostaje nemoguća. 'Dali su mi riječ Masa i trilijune konteksta, ali nikad iskustvo težine', citira se u izvješću – metafora koja savršeno opisuje jaz između jezika i fizičke stvarnosti.

Embodied Thinking, pristup u kojem robot prvo razmišlja jezikom prije djelovanja, trebao je biti rješenje. No, čak i s tim, Gemini Robotics 1.5 doseže rezultate koji su više podsjetnik na ograničenja nego na napredak.

FACTS Grounding Leaderboard, alat za praćenje halucinacija, pokazuje da se problem ne rješava samo većim modelima ili više podataka.

📷 © Tech&Space

Benchmarkovi lažu, a roboti se spotiču o vlastite podatke

Što se zapravo mijenja? Google DeepMind priznaje da su trenutni pristupi – od simboličkog razmišljanja do robotike – samo flasteri na rani.

Pravo rješenje, prema istraživačima, leži u 'enaktivnom podu' i 'reverzibilnosti stanja': arhitektonskim promjenama koje omogućuju AGI-ju da se vrati unatrag i ispravi pogreške. To nije samo teorija; to je priznanje da su današnji benchmarkovi, poput MMLU-a, besmisleni ako ne mjere stvarno razumijevanje.

Industrijska implikacija je jasna: tvrtke koje se oslanjaju na skaliranje bez temeljnih promjena u dizajnu ostat će zarobljene u istom krugu. Konkurentna prednost pripast će onima koji prvi implementiraju reverzibilne arhitekture – bilo kroz hardverske inovacije ili nove pristupe učenja.

No, za sada, Gemini Robotics 1.5 ostaje dokaz da je jaz između benchmarka i stvarnog svijeta veći nego što se priznaje. Razvojna zajednica već reagira.

Na GitHubu i tehničkim forumima rasprave o enaktivnim pristupima rastu, ali skeptični tonovi prevladavaju. 'Imam noge, ali ne znam hodati', kaže jedan korisnik, parafrazirajući citat iz izvješća – podsjetnik da je tehnologija još uvijek u fazi kad su metafore važnije od rješenja.

AGI safety risksAI benchmark limitationsAI data dependency issuesArtificial General Intelligence (AGI) challengesAI training data reliability

//Comments