TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Umjetna inteligencijadb#2564

Lažne rendgenske snimke prevarile i radiologe i AI

(1w ago)
Global
medicalxpress.com
Lažne rendgenske snimke prevarile i radiologe i AI

Lažne rendgenske snimke prevarile i radiologe i AI📷 © Tech&Space

  • 17 radiologa iz 6 zemalja prevareno lažnim snimkama
  • GPT-4o i Gemini 2.5 Pro otkrivaju deepfake samo 52–89% puta
  • „Previše savršeni“ kosturi – ključni trag za prepoznavanje

Studija objavljena u Radiology otkriva da niti iskusni radiolozi niti najnapredniji multimodalni veliki jezici (llm-ovi) ne mogu pouzdano razlikovati ai-generirane „deepfake“ rendgenske snimke od stvarnih. Testirano je 17 radiologa iz 12 centara širom šest zemalja (sad, francuska, njemačka, turska, uk, uae), a rezultati su bili neujednačeni: točnost detekcije krećala se od 58% do 92% za snimke generirane chatgpt-om, te 62% do 78% za one iz stanfordovog modela roentgen.

Što je zanimljivije, isti su problem imali i llm-ovi poput gpt-4, gpt-5, gemini 2.5 pro i llama 4 maverick — njihova točnost varirala je od 52% do 89%, što je statistički bliže bacanju novčića nego medicinskoj sigurnosti. Problem nije samo u tehnologiji, već u njoj kao oruđu obmane. „Naše istraživanje pokazuje da ove deepfake snimke izgledaju dovoljno realno da prevare radiologe, najobučene stručnjake za medicinske snimke, čak i kada znaju da su ai-generirane prisutne“, ističe mickael tordjman, m.d., glavni autor studije.

Njegov tim je primijetio da lažne snimke često imaju „previše savršene“ kosti — glatke, bez prirodnih nepravilnosti koje karakteriziraju stvarne ljudske strukture. To je detalj koji bi, teorijski, trebao biti crvena zastava, ali u praksi?

Radiolozi su ga propustili u gotovo polovici slučajeva. Ovdje se otvara ključno pitanje: ako stručnjaci ne mogu razlikovati lažno od istinog, tko će biti odgovoran kada deepfake snimka završava u sudu — ili, još gore, u dijagnozi?

Benchmark nasuprot stvarnoj opasnosti: tko je spreman za val lažnih medicinskih dokaza

Benchmark nasuprot stvarnoj opasnosti: tko je spreman za val lažnih medicinskih dokaza📷 © Tech&Space

Benchmark nasuprot stvarnoj opasnosti: tko je spreman za val lažnih medicinskih dokaza

Realna opasnost nije samo u akademskim benchmarkovima, već u praksi gdje se ove snimke mogu iskoristiti za medicinsku prevaru, osiguravajuće prijevare ili čak cyber-napade na bolničke sustave. Studija upozorava da bi lažne medicinske snimke mogle postati oruđe za manipulaciju osiguravajućih tvrtki, pravnih postupaka ili čak terorističkih prijetnji (npr. lažne snimke „ozračivanja“ u nuklearnim incidentima).

A ko ima najviše za izgubiti? Pacijenti, naravno — ali i bolnice koje bi mogle biti tužene za pogrešne dijagnoze temeljene na lažnim snimkama, ili osiguravajuće kompanije koje bi morale platiti milijune na temelju fabriciranih dokaza.

Tehnička zajednica već reagira: na github-u se pojavljuju alati za detekciju kao što su deepfake-o-meter (još uvijek u eksperimentalnoj fazi) i medfaker, ali njihova učinkovitost je neprovjerena izvan kontroliranih uvjeta. Zanimljivo je da dio istraživača primjećuje kako bi rješenje moglo ležati u „digitalnim potpisima“ — metapodacima koji bi pratili autentičnost snimke od uređaja do arhive.

No, dok se to ne dogodi, jedino što nas štiti od vala lažnih medicinskih dokaza je — čista sreća. Pravi signal ovdje nije u tome što ai može generirati uvjerljive laži (to znamo već godinama), već u tome što niti ljudi niti algoritmi nisu spremni za posljedičnu val obmane.

A to je problem koji se ne rješava novim modelima, već strogim regulatornim okviroma i obaveznom obukom — što, naravno, nije ni približno tako „sexy“ kao sljedeći ai breakthrough.

U međuvremenu, bolnice i osiguravajuće kompanije moraju biti svjesne potencijalne opasnosti lažnih medicinskih snimaka. Trebaju razviti protokole za provjeru autentičnosti snimaka i obučiti svoje zaposlenike da prepoznaju lažne dokaze. Također, vlade i regulatorni organi moraju donijeti zakone i propise koji će spriječiti zloupotrebu tehnologije u medicini.

medical imaging AI misdiagnosisradiology deepfake detectionsynthetic X-ray benchmarkingAI-generated medical evidencehealthcare disinformation risks

//Comments