CollectivIQ: Više chatbota, manje gluposti?

CollectivIQ: Više chatbota, manje gluposti?📷 © Tech&Space
- ★Odgovori iz 14 modela odjednom — ali tko provjerava?
- ★Crowdsourcing AI kao štit od halucinacija
- ★Startupi prodaju pouzdanost, ali benchmarki šute
Startup CollectivIQ ne nudi novi model, nego meta-sustav koji istovremeno prikazuje odgovore iz ChatGPT-a, Geminija, Claudea, Groka — i do 10 manje poznatih modela. Glavna teza: ako korisnik vidi više verzija odgovora, laže će uočiti neslaganja, a time i potencijalne AI-halucinacije. Prema njihovu whitepaperu, to smanjuje greške za ~30% u usporedbi s pojedinačnim modelima. Ali tu počinje problem: ta brojka dolazi iz internih testova na 500 pitanja, a ne iz nezavisnih benchmarka.
Rješenje zvuči logično — dok ne zapitate tko zapravo provjerava točne odgovore. Platforma ne nudi konsenzusni algoritam (poput Mixtral-ovog), nego prepušta korisniku da procijeni koji je odgovor ‘najmanje pogrešan’. To pretpostavlja da prosječni korisnik ima vremena, znanja i volje da usporedi 14 različitih odgovora na pitanje poput ‘Kako optimizirati poreznu prijavu u Hrvatskoj 2024.’. Čudno je da se o ‘pouzdanosti’ govori bez spominjanja latencije: svaki dodatni model znači dodatno kašnjenje.
A ako je ciljna publika poduzeća, pitanje postaje — koliko će IT odjeli biti voljni platiti za ‘pouzdanost’ koja zahtijeva ručni rad? To je ključno pitanje za uspjeh CollectivIQ-a, jer njihova platforma nije samo tehnički izazov, već i ekonomski.

Demo nasuprot deploymenta: Kada je ‘više’ samo ‘drugačije’📷 © Tech&Space
Demo nasuprot deploymenta: Kada je ‘više’ samo ‘drugačije’
Industrijski kontekst ovdje je ključan. CollectivIQ ne konkurira OpenAI-u ili Anthropicu, nego enterprise rješenjima poput Vectare ili You.com, koji već agregiraju više modela — ali s fokusom na pretragu, a ne chatbotove. Razlika? Ovi posljednji nude kurirane odgovore (s izvorima), dok CollectivIQ baca korisnika u DIY moderaciju.
Zanimljivije je pitanje tko ovdje zapravo profitira. Startup se pozicionira kao ‘neutralni agregator’, ali njihova cijenovna struktura sugerira da će glavni prihod dolaziti od manjih modela koji plaćaju za uvrštavanje u platformu. Drugim riječima, ne prodaju pouzdanost — prodaju pristup publici. To objašnjava zašto u demo videu nedostaju modeli poput Llame 3 ili Command R+: vjerojatno još nisu platili ‘ulaznicu’.
Dio developer komunity već primjećuje da je ovo ‘AI kao kablovski paket’ — plaćate za 50 kanala, ali gledate samo pet. Pravi test bit će kada korporacije shvate da im ne treba više odgovora, nego bolje filtrirani. A to je posao za koja već postoji rješenje: ljudi.
U svakom slučaju, CollectivIQ je zanimljiv primjer kako se tehnologija može koristiti za poboljšanje pouzdanosti chatbota. Međutim, još uvijek postoje brojni izazovi koji moraju biti prevladani prije nego što se ova tehnologija može šire koristiti. Nadamo se da će CollectivIQ uspjeti u svojim ciljevima i da će njihova tehnologija biti korisna za korisnike.