Lažne rendgenske snimke prevarile i radiologe i AI

Lažne rendgenske snimke prevarile i radiologe i AI📷 © Tech&Space
- ★17 radiologa iz 6 zemalja prevareno lažnim snimkama
- ★GPT-4o i Gemini 2.5 Pro otkrivaju deepfake samo 52–89% puta
- ★„Previše savršeni“ kosturi – ključni trag za prepoznavanje
Studija objavljena u Radiology otkriva da niti iskusni radiolozi niti najnapredniji multimodalni veliki jezici (llm-ovi) ne mogu pouzdano razlikovati ai-generirane „deepfake“ rendgenske snimke od stvarnih. Testirano je 17 radiologa iz 12 centara širom šest zemalja (sad, francuska, njemačka, turska, uk, uae), a rezultati su bili neujednačeni: točnost detekcije krećala se od 58% do 92% za snimke generirane chatgpt-om, te 62% do 78% za one iz stanfordovog modela roentgen.
Što je zanimljivije, isti su problem imali i llm-ovi poput gpt-4, gpt-5, gemini 2.5 pro i llama 4 maverick — njihova točnost varirala je od 52% do 89%, što je statistički bliže bacanju novčića nego medicinskoj sigurnosti. Problem nije samo u tehnologiji, već u njoj kao oruđu obmane. „Naše istraživanje pokazuje da ove deepfake snimke izgledaju dovoljno realno da prevare radiologe, najobučene stručnjake za medicinske snimke, čak i kada znaju da su ai-generirane prisutne“, ističe mickael tordjman, m.d., glavni autor studije.
Njegov tim je primijetio da lažne snimke često imaju „previše savršene“ kosti — glatke, bez prirodnih nepravilnosti koje karakteriziraju stvarne ljudske strukture. To je detalj koji bi, teorijski, trebao biti crvena zastava, ali u praksi?
Radiolozi su ga propustili u gotovo polovici slučajeva. Ovdje se otvara ključno pitanje: ako stručnjaci ne mogu razlikovati lažno od istinog, tko će biti odgovoran kada deepfake snimka završava u sudu — ili, još gore, u dijagnozi?

Benchmark nasuprot stvarnoj opasnosti: tko je spreman za val lažnih medicinskih dokaza📷 © Tech&Space
Benchmark nasuprot stvarnoj opasnosti: tko je spreman za val lažnih medicinskih dokaza
Realna opasnost nije samo u akademskim benchmarkovima, već u praksi gdje se ove snimke mogu iskoristiti za medicinsku prevaru, osiguravajuće prijevare ili čak cyber-napade na bolničke sustave. Studija upozorava da bi lažne medicinske snimke mogle postati oruđe za manipulaciju osiguravajućih tvrtki, pravnih postupaka ili čak terorističkih prijetnji (npr. lažne snimke „ozračivanja“ u nuklearnim incidentima).
A ko ima najviše za izgubiti? Pacijenti, naravno — ali i bolnice koje bi mogle biti tužene za pogrešne dijagnoze temeljene na lažnim snimkama, ili osiguravajuće kompanije koje bi morale platiti milijune na temelju fabriciranih dokaza.
Tehnička zajednica već reagira: na github-u se pojavljuju alati za detekciju kao što su deepfake-o-meter (još uvijek u eksperimentalnoj fazi) i medfaker, ali njihova učinkovitost je neprovjerena izvan kontroliranih uvjeta. Zanimljivo je da dio istraživača primjećuje kako bi rješenje moglo ležati u „digitalnim potpisima“ — metapodacima koji bi pratili autentičnost snimke od uređaja do arhive.
No, dok se to ne dogodi, jedino što nas štiti od vala lažnih medicinskih dokaza je — čista sreća. Pravi signal ovdje nije u tome što ai može generirati uvjerljive laži (to znamo već godinama), već u tome što niti ljudi niti algoritmi nisu spremni za posljedičnu val obmane.
A to je problem koji se ne rješava novim modelima, već strogim regulatornim okviroma i obaveznom obukom — što, naravno, nije ni približno tako „sexy“ kao sljedeći ai breakthrough.
U međuvremenu, bolnice i osiguravajuće kompanije moraju biti svjesne potencijalne opasnosti lažnih medicinskih snimaka. Trebaju razviti protokole za provjeru autentičnosti snimaka i obučiti svoje zaposlenike da prepoznaju lažne dokaze. Također, vlade i regulatorni organi moraju donijeti zakone i propise koji će spriječiti zloupotrebu tehnologije u medicini.