NYT otpušta novinara: AI oruđe kopiralo recenziju knjižnog bestselera
📷 © Tech&Space
- ★AI alati preslikali tuđe recenzije bez navođenja izvora
- ★Freelancer Alex Preston priznao „ozbiljnu grešku“ nakon otkrivanja
- ★Sljedeći korak: tko će odgovarati za AI-generirane pogreške u medijima?
Freelancer The New York Timesa, Alex Preston, izgubio je suradnju nakon što je njegov AI alat doslovce preslio odlomke iz recenzije romana Watching Over Her, objavljene u The Guardianu. Christobel Kent, autorica originalne recenzije, nije bila navedena kao izvor — a to nije bio izuzetak, već simptom šireg problema: AI ubrzava rad, ali i multiplicira rizike kada korisnici ne razumiju kako alati funkcioniraju.
Preston je incident opisao kao „ozbiljnu grešku“ i izrazio „ogromno iznenađenje“, no pitanje ostaje: koliko je takvih slučajeva prošlo neprimjećeno? Prema dostupnim informacijama, riječ je o barem drugom dokumentiranom slučaju u posljednja dva mjeseca gdje su AI alati u novinarstvu proizveli ili plagijate ili lažne citate.
Brzina postaje opasna kada pretpostavka ‚AI će to riješiti‘ zamijeni osnovnu provjeru činjenica. Problem nije samo u alatu, već i u kulturi njegovog korištenja.
Kada The Decoder prvi put objavi vijest o ovakvim propustima, jasno je da se radi o sistemskom jazu: medijske kuće ubrzavaju proizvodnju, ali zaboravljaju ažurirati protokole.
📷 © Tech&Space
Demo nasuprot odgovornosti: tko plaća cijenu kada AI ubrzava, a kontrola zaostaje
Realni signal ovdje nije u samom incidentu — on je samo najglasniji primjer — već u tome što nijedan veliki izdavač još uvijek nema jasna pravila o korištenju generativnih alata. Dok se GitHub zajednica bavi pitanjima transparentnosti kodova, medijski divovi još uvijek debatiraju osnovna pitanja: smije li AI biti koautor?
Kako se označavaju izvorni materijali koje alat ‚posuđuje‘? I, najvažnije, tko snosi odgovornost kada stvarne osobe — poput Prestona — postanu žrtve sustava koji im je trebao olakšati posao.
Čudno je da se o ovome govori tek kada dođe do skandala, a ne kao dio standardne obuke. Prema ranim signalima, dio novinara već koristi AI za ‚poliranje‘ teksta ili generiranje naslova, ali bez jasnih smjernica.
To nije pitanje tehnologije, već upravljanja: ako The New York Times — jedan od najbogatijih i najutjecajnijih medija — ne može osigurati osnovnu kontrolu, što onda možemo očekivati od manjih izdavača? Pravi test za industriju bit će sljedeći: hoće li se ulagati u alate za detekciju AI-generiranog sadržaja (poput Originality.AI) ili će se nastaviti s politikom ‚ne pitaj, ne govori‘.
Ulaganje u alate za detekciju AI-generiranog sadržaja može biti rješenje za ovaj problem. Time će se omogućiti lakša detekcija plagijata i lažnih citata, te će se smanjiti rizik od sličnih incidenata u budućnosti. Međutim, to će zahtijevati veliku promjenu u kulturi i praksi novinarske industrije.