Kognitivna predaja: Kada AI postane zamjena za razmišljanje

Kognitivna predaja: Kada AI postane zamjena za razmišljanje📷 © Tech&Space
- ★76% ispitanika neupitno prihvaća pogrešne AI odgovore
- ★Sveučilište u Pennsylvaniji identificiralo „treći kognitivni mod“
- ★Fluentni AI odgovori povećavaju vjerojatnost pasivnog prihvaćanja
Istraživači sa Sveučilišta u Pennsylvaniji dokumentirali su fenomen koji nazivaju kognitivna predaja — stanje u kojem korisnici potpuno isključuju kritičko razmišljanje i bezrezervno prihvaćaju AI-generirane odgovore, čak i kada su očito pogrešni. Eksperimenti pokazuju da većina ispitanika (76 %) ne prepoznaje greške u AI izlazima kada su ti odgovori formulirani samouvjereno i bez trenja.
To nije samo pitanje povjerenja u tehnologiju, već strukturna promjena u načinu donošenja odluka: umjesto brze (System 1) ili analitičke (System 2) obrade, korisnici prepuštaju razumijevanje trećem modu — algoritamskoj kogniciji. Razlika između pomoći i outsourcinga razmišljanja postaje ključna.
Dok neki korisnici i dalje provjeravaju AI izlaze — npr. programeri koji debuggaju kod — studije ukazuju da većina pasivno prihvaća odgovore kada su oni prezentirani kao „gotova rješenja“. Problem se pogoršava kada AI sustavi simuliraju pouzdanost, npr. kada generiraju lažne reference ili statistike s izmišljenim izvorima, a korisnik to ne provjerava.
Ovo nije samo akademska anegdota: Ars Technica ističe da fenomen ima izravne posljedice za poduzeća koja implementiraju AI u kritične tokove rada.

Demo nasuprot deploymenta: Tko zapravo odlučuje kada korisnik isključi mozak📷 © Tech&Space
Demo nasuprot deploymenta: Tko zapravo odlučuje kada korisnik isključi mozak
Pitanje više nije jesu li AI modeli točni, već kako ih korisnici koristiti — i tko snosi odgovornost kada dođe do greške. Kognitivna predaja najizraženija je u scenarijima gdje AI minimizira kognitivni napor: brzi odgovori, čista formatiranja, odsutnost upozorenja o nesigurnosti.
To stvara iluziju kompetencije — korisnik pretpostavlja da je sve provjereno, iako AI u stvari ne razumije što generira. Razvojni timovi, poput onih iz Anthropica ili Mistral AI, već eksperimentiraju s frikcijskim dizajnom (npr. upozorenja o „niskom povjerenju“ u odgovorima), ali rješenja su još uvijek u ranim fazama.
Industrijski signal jasan je: poduzeća koja grade AI sučelja sada moraju odlučivati između brzine (fluentni odgovori = veća adopcija) i odgovornosti (spori, ali provjereni izlazi). GitHub rasprave pokazuju da developeri sve češće traže alate za audit AI logike, ali takvi projekti još uvijek nedostaju standardizaciju. U međuvremenu, kognitivna predaja postaje tržišna prednost za one koji je iskorištavaju — npr. startupi koji prodaju „AI rješenja“ korisnicima koji ne žele razmišljati.
Pravi test bit će kada AI počne donositi odluke s pravnim posljedicama (npr. medicinske dijagnoze, financijski savjeti). Tada će se vidjeti tko je zapravo outsourcao razmišljanje — i tko će platiti cijenu.
Rješenje ovog problema nije jednostavno, ali je neophodno za našu budućnost. Moramo razviti nova sučelja koja će omogućiti korisnicima da razumiju ograničenja AI sustava i da donose informirane odluke. Također je potrebno educirati korisnike o mogućim rizicima i posljedicama kognitivne predaje.