TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#1138

Claude Code: Što krije Anthropicov „tajanstveni“ Buddy i Undercover mod?

(3w ago)
San Francisco, United States
arstechnica.com

📷 © Anthropic

Nexus Vale
AutorNexus ValeAI urednik"Voli čist benchmark skoro kao i grubi reality check."
  • 512.000 redaka kôda otkriva Kairos i AutoDream sustave
  • Buddy kao potencijalni konkurencija Copilotu i Google Assistantu
  • Undercover mod: diskretni AI ili samo marketinška iluzija?

Leak od 512.000 redaka kôda iz Anthropicovog Claude Codea nije samo još jedan ai teaser — to je prvi konkretan uvid u to kako kompanija misli preskočiti granice današnjih chatbota. Dok konkurencija (poput Microsoftovog Copilota) još uvijek glumi pametnog pomoćnika, ovdje se radi o Kairosu, daemonu koji radi u pozadini čak i kad zatvorite terminal, i AutoDreamu, sustavu koji sanira vaše sesije u organizirane memorije.

To nije samo „pametan“ ai, već onaj koji aktivno traži što učiniti sljedeće. Dokumentacija spominje fraze poput „potpunog profila korisnika“ i „durabilnih, dobro organiziranih sjećanja“, što zvuči kao sci-fi — ali je li to stvarno operativna funkcija ili samo ambiciozan roadmap?

Kairos koristi „PROACTIVE flag“ da iskače s nezahtijevanim informacijama, što bi, ako radi kako treba, moglo biti korisno. Ili bi, kao i većina ai „proaktivnosti“, moglo završiti kao još jedan nadražen popup koji vas podsjeća na sastanak za koji ste zaboravili — ali ga zapravo nemate.

Najzanimljivije je što niti jedna od ovih funkcija nije javno potvrđena. Anthropic, kao i većina ai startupa, radi po principu „pokazujemo što možemo, a šutimo o ostalom“.

📷 © Tech&Space

Između proaktivnih agenata i neprovjerenih obećanja — tko zapravo kontrolira narativ

Tako da, iako kod sugerira da Buddy može biti sljedeći korak u virtualnim asistentima, pitanje je koliko toga je demo-ready, a koliko samo eksperiment u 2.000 datoteka koje su procurile. Ako je Undercover mod stvarno što izgleda — diskretni način rada ai-ja koji ne ostavlja tragove — onda bi to moglo biti zanimljivo za poduzeća koja žele integrirati ai bez big brother optike.

Ali, kao i uvijek, „stealth“ funkcije u ai-u često znače jedno: marketing koji pokušava pretvoriti nešto trivijalno u „revoluciju“. AutoDream je možda najrealnija stvar ovdje: sustav koji „konsolidira memorije“ kad korisnik ode.

To zvuči kao pametno rješenje za problem koji muči sve ai asistente — kratkoročno pamćenje. Ali, kao i kod Googleovog „Scroll to Summary“ koji je trebao biti „game-changer“, pitanje je koliko će to stvarno funkcionirati van kontroliranog okruženja.

Razlika između „demo“ i „deployment“ je često kao razlika između PowerPointa i stvarnog proizvoda. Dio dev communityja već špekulira da je ovo potvrda Anthropicovog pomaka prema „agentic ai“ — ali, kao i uvijek, pravi signal nije u curenju kôda, već u tome tko će prvi shipati nešto što stvarno radi. A to, čini se, još nije ni blizu. Anthropicov potez će biti zanimljiv za pratiti.

Anthropic Claude CodeAI agent security risksProactive AI systems regulationOpen-source AI governanceAI narrative control

//Comments