AI prevodi sada pune Wikipediju 'halucinacijama'
A magnifying glass hovering over a single invented footnote in an Arabic Wikipedia article, where the footnote text is clearly fabricated but mimics academic citation format, exposing the subtle hallucination at the h...📷 AI illustration
- ★Wikipedijini urednici blokirali AI prevoditelje
- ★Prijevod korištenjem LLM-a uveo je 1.879 grešaka
- ★'Halucinacije' bez izvora sve češće
Kada je Open Knowledge Association (OKA) započela plaćati prevoditelje za korištenje AI alata poput Gemini i ChatGPT za širenje sadržaja Wikipedije, nitko nije računao na to da će se to pretvoriti u online širenje dezinformacija. Prema objavljenim podacima, čak 1.879 grešaka ušlo je u članak, uključujući 200 potpuno besmislenih rečenica bez ikakvog izvora. Među najozbiljnijim problemima bile su zamijenjene reference, dodani potpuno irelevantni tekstovi pa čak i razbijeni formatirani dijelovi članaka.
Problemi su se pojavili kada su prevoditelji dobili upute da izravno kopiraju i lijepe tekstove u velike jezične modele (LLM-ove), oslanjajući se isključivo na njihovu sposobnost 'poboljšavanja čitljivosti'. Umjesto toga, AI je često izmišljao sadržaj ili pak preuzimao informacije iz potpuno nepovezanih izvora. Izvještaj 404 Media jasno pokazuje kako je ovaj eksperiment prijevodnog automatiziranja doveo do ozbiljnih kvarova u pouzdanosti Wikipedije kao globalne baze znanja.
Iako je Wikipedijina zajednica reagirala zabranom nekih prevoditelja i uspostavom novih strožih pravila, pitanje je koliko će se brzo ti propusti moći sanirati. Volonterski urednici koji održavaju Wikipediju suočavaju se s fizičkim i resursnim ograničenjima, što znači da se potencijalne greške mogu gomilati prije nego što budu uočene i ispravljene. Ovakav razvoj događaja postavlja ozbiljno pitanje o budućnosti otvorenog znanja u eri generativne AI.
Ovaj incident također otkriva duboku napetost između efikasnosti i kvalitete u automatizaciji. Dok su AI alati brzi i jeftini, njihova sposobnost baratanja činjenicama i kontekstom još uvijek je krajnje nepouzdana. Problem nije samo u Wikipediji — slične greške javljaju se i u drugim platformama koje koriste AI za obradu i prijevode sadržaja, što ukazuje na sistemski problem u cijeloj industriji.
Što je još alarmantnije, problemi s 'halucinacijama' nisu ograničeni samo na englesku Wikipediju. Prema ranim signalima, višejezični članci posebno su osjetljivi na AI prevode, jer se često oslanjaju na automatizirani sadržaj bez adekvatne provjere. Dok Wikipedijina zajednica pokušava uspostaviti nove mehanizme kontrole, postavlja se pitanje koliko će vremena trebati da se ova praksa stabilizira. U međuvremenu, korisnici Wikipedije moraju biti svjesni da neke informacije mogu biti netočne ili čak namjerno manipulirane.
Poslovna implikacija ovoga nije zanemariva. Kompanije koje trenutno ulažu u automatizaciju sadržaja putem AI alata dobivaju prividnu prednost u brzini i obujmu, ali ona brzo nestaje kada se suoče s reputacijskim rizicima. Izvještaj istraživačkog instituta Pew Research navodi kako čak 68% korisnika traži alternativne izvore provjere ključnih informacija, što ukazuje na sve veću sumnjičavost prema AI-generiranom sadržaju.
Za razvojne inženjere ova situacija postavlja ozbiljan izazov. Dok je postavljanje AI sistema za pomoć u prevođenju privlačno rješenje, nedostaju standardizirana rješenja za otkrivanje i sprječavanje 'halucinacija'. Tek kada se razviju pouzdaniji sistemi za provjeru i označavanje izvora, AI će moći postati stvarno korisnim alatom u održavanju točnih i ažurnih informacija na globalnim platformama.