Grok i destilacija: Musk je otvorio temu koju AI laboratoriji radije drže u sjeni
Musk's testimony put model distillation at the center of the xAI and OpenAI dispute.📷 AI-generated / Tech&Space
- ★Musk je pod prisegom rekao da je xAI djelomično destilirao OpenAI modele
- ★Destilacija smanjuje prednost laboratorija koji su skupo trenirali frontier modele
- ★Priznanje komplicira Muskovo javno i pravno pozicioniranje protiv OpenAI-ja
Elon Musk u sporu s OpenAI-jem nastupa kao osnivač koji tvrdi da se organizacija odmaknula od svoje izvorne misije. No u sudnici se otvorila neugodnija tehnička tema: je li xAI pri izradi Groka učio od OpenAI modela. Prema TechCrunchu, Musk je u kalifornijskom federalnom sudu upitan koristi li xAI distilacijske tehnike na OpenAI modelima. Najprije je rekao da je to opća praksa u AI industriji. Kada je pitanje suženo na konkretan odgovor, priznao je: djelomično. Destilacija u ovom kontekstu znači da jedan sustav sustavno ispituje drugi model i koristi njegove odgovore kao signal za treniranje ili podešavanje vlastitog modela. Nije riječ o kopiranju težina modela, ali je riječ o pokušaju da se iz izlaza skupe tragovi o ponašanju skupljeg, zrelijeg sustava.
Sudski iskaz o xAI-ju nije samo fusnota u parnici protiv OpenAI-ja, nego pogled u način na koji se modeli međusobno sustižu.
Distillation uses a model's outputs as training signal without copying its weights.📷 AI-generated / Tech&Space
Veliki laboratoriji ulažu goleme iznose u podatke, čipove, inženjerski rad i evaluacije. Ako manji ili kasniji konkurent može sustavno ispitivati njihove modele i dobiti dio sposobnosti znatno jeftinije, prednost infrastrukture se smanjuje. Zato OpenAI, Anthropic i Google imaju jasan motiv detektirati masovne upite i blokirati sumnjive obrasce. Problem je što je granica neuredna. Svi modeli uče iz nekog vanjskog signala, a korisnici svakodnevno pitaju javne chatbotove. Ono što distilaciju čini osjetljivom nije pojedinačni razgovor, nego namjera i opseg: automatizirano skupljanje odgovora, mapiranje slabosti i izgradnja konkurentskog modela preko tuđeg sustava. Muskovo priznanje zato nije samo pravna fusnota. Ono pokazuje da se AI industrija nalazi u fazi u kojoj javni moralni argumenti često ne prate tehničku praksu. Tvrtke osuđuju distilaciju kada dolazi izvana, ali tržišni pritisak tjera ih da prate što rade konkurenti. Za korisnike i regulatore važnije je nešto drugo: ako se modeli sve više grade na izlazima drugih modela, postaje teže znati odakle dolazi sposobnost, gdje ulazi greška i tko je odgovoran kada se ista slabost replicira kroz više proizvoda. Grok je ovdje samo najvidljiviji slučaj jedne šire industrijske navike.

