TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#1091

Liquid AI: 350M parametara, 28T tokena i pitanje inteligencije

(3w ago)
Mountain View, CA
marktechpost.com

📷 © Tech&Space

Nexus Vale
AutorNexus ValeAI urednik"Još uvijek vjeruje da se model prvo mora objasniti, pa tek onda isporučiti."
  • 350M parametara protiv trendova skaliranja
  • Reinforcement learning na 28 trilijuna tokena
  • Tko zapravo dobiva prednost u ovom potezu

Liquid AI je upravo objavio LFM2.5-350M – model s 350 milijuna parametara koji je prošao kroz dodatnih 18 trilijuna tokena pretrage (od ukupnih 28T) i skalirano pojačano učenje. To nije samo iteracija, nego namjerni test granica „gustoće inteligencije“: koliko performanse možete iscijediti iz manjeg modela ako ga natovarite podacima i finim tuningom. Za usporedbu, Metaov Llama 3 8B ima 23 puta više parametara, ali je treniran na ~15T tokena – Liquid ovdje igra drugu igru.

Iako marketing naglašava „izazivanje zakona skaliranja“, stvarni signal leži u cijeni treniranja. 28T tokena nije malen broj – to je razina koju većina startupa ne može priuštiti, čak ni s optimizacijama. Čini se da Liquid testira hipotezu: možda parametri nisu usko grlo, već kvaliteta podataka i metoda fine-tuninga. To bi moglo objasniti zašto se model hvali upravo reinforcement learningom na velikom obimu, a ne samo većom arhitekturom.

Dio technical communityja već primjećuje da su benchmarkovi (ako ih ima) još uvijek u fazi „izabranih primjera“, a ne nezavisnih testova. To je ključna razlika: demo ≠ produkt. Liquidov pritisak na „inteligeniju po parametru“ zvuči uvjerljivo, ali dok ne vidimo realne use caseove – npr. u production okruženjima s ograničenim resursima – ostaje pitanje koliko je ovo inovacija, a koliko pametno pakiranje.

📷 © Tech&Space

Demo nasuprot deploymenta: gdje se krije stvarna inovacija

Ako je LFM2.5-350M zaista efikasniji od većih modela u specifičnim zadacima (npr. stručni Q&A ili kod generiranje), to bi moglo promijeniti dinamiku za edge AI i uređaje s ograničenom računskom snagom. Ali tu dolazimo do suštinske dileme: Liquid još uvijek nije objavio detalje o latenciji, troškovima inferencea, ni usporedbama s konkurentima poput Mistral 7B u istim uvjetima. Bez toga, sve su to claimovi bez konteksta.

Zanimljivije od samog modela je pitanje tko ovdje stječe prednost. Liquid AI nije open-source igrač poput Mistrala, niti ima cloud infrastrukturu kao Google. Njegova šansa leži u licenciranju za niche primjene – recimo, u financijama ili zdravstvu gdje su manji, brži modeli kritični. Ali ako se ispostavi da 350M parametara zaista može držati korak s 7B+ modelima u odabranim scenarijima, to bi moglo potresti tržište inferenčnih čipova (npr. Qualcomm ili NVIDIA Jetson).

Za sada, najjači signal dolazi od samog Liquidovog fokusa: oni ne prodaju model, nego priču o učinkovitosti. To je pametan potez u svijetu gdje većina igrača utječe na „veći = bolji“ narativ. Ali dok god nema transparentnih benchmarka na realnim datasetovima – a ne na sintetičkim testovima – ostaje sumnja: je li ovo stvarno proboj, ili samo bolje pakirana srednja klasa?

Liquid AI mora još uvijek dokazati svoju vrijednost u stvarnim svjetskim primjenama. Ako uspije, to bi moglo biti velikim poticajem za razvoj umjetne inteligencije. Međutim, dok ne vidimo konkretnih rezultata, teško je donijeti konačni sud. Sadašnji rezultati su obećavajući, ali još uvijek nije jasno koliko će se ova tehnologija moći primijeniti u praksi.

Liquid AILarge Language ModelAI Deployment

//Comments