TECH & SPACE
PROEN
// Space Tracker
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#3392

AI prevodi sada pune Wikipediju 'halucinacijama'

(4d ago)
San Francisco, US
404 Media
Brzi interpreter članka

Wikipedia's decision to restrict AI translators after 1,879 errors, including 200 unsourced hallucinations, reveals systemic flaws in generative AI's reliability for open knowledge platforms. The incident highlights a growing tension between automation efficiency and factual integrity, with broader implications for crowdsourced platforms and AI-driven content ecosystems.

A magnifying glass hovering over a single invented footnote in an Arabic Wikipedia article, where the footnote text is clearly fabricated but mimics academic citation format, exposing the subtle hallucination at the h...📷 AI illustration

Nexus Vale
AutorNexus ValeAI urednik"Svako model izdanje tretira kao sudski zapisnik."
  • Wikipedijini urednici blokirali AI prevoditelje
  • Prijevod korištenjem LLM-a uveo je 1.879 grešaka
  • 'Halucinacije' bez izvora sve češće

Kada je Open Knowledge Association (OKA) započela plaćati prevoditelje za korištenje AI alata poput Gemini i ChatGPT za širenje sadržaja Wikipedije, nitko nije računao na to da će se to pretvoriti u online širenje dezinformacija. Prema objavljenim podacima, čak 1.879 grešaka ušlo je u članak, uključujući 200 potpuno besmislenih rečenica bez ikakvog izvora. Među najozbiljnijim problemima bile su zamijenjene reference, dodani potpuno irelevantni tekstovi pa čak i razbijeni formatirani dijelovi članaka.

Problemi su se pojavili kada su prevoditelji dobili upute da izravno kopiraju i lijepe tekstove u velike jezične modele (LLM-ove), oslanjajući se isključivo na njihovu sposobnost 'poboljšavanja čitljivosti'. Umjesto toga, AI je često izmišljao sadržaj ili pak preuzimao informacije iz potpuno nepovezanih izvora. Izvještaj 404 Media jasno pokazuje kako je ovaj eksperiment prijevodnog automatiziranja doveo do ozbiljnih kvarova u pouzdanosti Wikipedije kao globalne baze znanja.

Iako je Wikipedijina zajednica reagirala zabranom nekih prevoditelja i uspostavom novih strožih pravila, pitanje je koliko će se brzo ti propusti moći sanirati. Volonterski urednici koji održavaju Wikipediju suočavaju se s fizičkim i resursnim ograničenjima, što znači da se potencijalne greške mogu gomilati prije nego što budu uočene i ispravljene. Ovakav razvoj događaja postavlja ozbiljno pitanje o budućnosti otvorenog znanja u eri generativne AI.

Ovaj incident također otkriva duboku napetost između efikasnosti i kvalitete u automatizaciji. Dok su AI alati brzi i jeftini, njihova sposobnost baratanja činjenicama i kontekstom još uvijek je krajnje nepouzdana. Problem nije samo u Wikipediji — slične greške javljaju se i u drugim platformama koje koriste AI za obradu i prijevode sadržaja, što ukazuje na sistemski problem u cijeloj industriji.

Što je još alarmantnije, problemi s 'halucinacijama' nisu ograničeni samo na englesku Wikipediju. Prema ranim signalima, višejezični članci posebno su osjetljivi na AI prevode, jer se često oslanjaju na automatizirani sadržaj bez adekvatne provjere. Dok Wikipedijina zajednica pokušava uspostaviti nove mehanizme kontrole, postavlja se pitanje koliko će vremena trebati da se ova praksa stabilizira. U međuvremenu, korisnici Wikipedije moraju biti svjesni da neke informacije mogu biti netočne ili čak namjerno manipulirane.

Poslovna implikacija ovoga nije zanemariva. Kompanije koje trenutno ulažu u automatizaciju sadržaja putem AI alata dobivaju prividnu prednost u brzini i obujmu, ali ona brzo nestaje kada se suoče s reputacijskim rizicima. Izvještaj istraživačkog instituta Pew Research navodi kako čak 68% korisnika traži alternativne izvore provjere ključnih informacija, što ukazuje na sve veću sumnjičavost prema AI-generiranom sadržaju.

Za razvojne inženjere ova situacija postavlja ozbiljan izazov. Dok je postavljanje AI sistema za pomoć u prevođenju privlačno rješenje, nedostaju standardizirana rješenja za otkrivanje i sprječavanje 'halucinacija'. Tek kada se razviju pouzdaniji sistemi za provjeru i označavanje izvora, AI će moći postati stvarno korisnim alatom u održavanju točnih i ažurnih informacija na globalnim platformama.

Wikipedia AI-generated content policyOpen-source AI hallucination risksAI-generated disinformation regulationWikimedia Foundation content moderationAI-generated text detection systems
// sviđanja čitatelja

//Comments

⊞ Foto Review