TECH&SPACE
LIVE FEEDMC v1.0
EN
// STATUS
ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...ISS420 kmCREW7 aboardNEOs0 tracked todayKp0FLAREB1.0LATESTBaltic Whale and Fehmarn Delays Push Scandlines Toward Faste...
// INITIALIZING GLOBE FEED...
Društvodb#1207

Kad AI zavara čak i liječnike: tko štiti pacijente?

(3w ago)
Santa Clara, CA
statnews.com
Kad AI zavara čak i liječnike: tko štiti pacijente?

Kad AI zavara čak i liječnike: tko štiti pacijente?📷 © Tech&Space

  • 17 radiologa i novinarka pogodili 75% lažnih rendgenskih snimki
  • AI generirane slike prijetnja dijagnostičkoj pouzdanosti
  • Tko snosi odgovornost ako algoritam prevari stručnjaka?

Studija objavljena u časopisu Radiology postavila je pitanje koje bi trebalo zabrinjavati svakoga tko je ikada ležao pod rendgenskim uređajem: mogu li radiolozi razlikovati stvarne snimke od onih koje je stvorila umjetna inteligencija? Rezultat je alarmantan – 17 iskusnih stručnjaka i STAT-ove novinarke Katie Palmer pogodili su točno u samo 75 posto slučajeva. To nije loša ocjena kad se gleda izolirano, ali u medicini, gdje je svaka greška potencijalno fatalna, taj postotak zvuči poput ruskog ruleta s pacijentovim životom.

Što se događa kad AI-generirane slike postanu dovoljno uvjerljive da zavaraju čak i one koji su godinama proučavali ljudsko tijelo? Ne radi se samo o akademskoj vježbi – ovo je upozorenje. Ako algoritmi mogu stvarati snimke koje stručnjaci ne mogu pouzdano razlikovati od stvarnih, tko jamči da sutrašnja dijagnoza neće biti temeljena na lažnom podatku? U sustavu gdje se već sada događaju greške zbog umora ili preopterećenosti, dodavanje još jedne varijable – AI dubokoizmišljotina – nije tehnološki napredak, već rizik.

Interesantno je da novinarka Palmer, koja nema medicinsko obrazovanje, postiže jednak rezultat kao i radiolozi. To nije kompliment stručnjacima, već upozorenje: AI ne testira samo naše znanje, već i našu sposobnost da razlikujemo istinu od manipulacije. U doba kad se lažne vijesti šire brže od virusa, medicinske duboke laži mogle bi postati još jedan alat u arsenalu onih koji žele podrivati povjerenje u znanost.

Kad algoritmi stvaraju slike koje stručnjaci ne mogu razlikovati od stvarnih, medicina ulazi u novo doba neizvjesnosti

Kad algoritmi stvaraju slike koje stručnjaci ne mogu razlikovati od stvarnih, medicina ulazi u novo doba neizvjesnosti📷 © Tech&Space

Kad algoritmi stvaraju slike koje stručnjaci ne mogu razlikovati od stvarnih, medicina ulazi u novo doba neizvjesnosti

Ali tko su ovdje pravi gubitnici? Pacijenti, svakako. Svaka dijagnostička pogreška košta vremena, novca i, u najgorem slučaju, života. No stručnjaci također gube – ne samo pouzdanje u vlastite sposobnosti, već i autoritet u očima javnosti. Ako AI može oponašati stručnost, čemu onda godine studija i prakse? To je pitanje koje će sve češće postavljati oni koji žele reducirati troškove zdravstva ili automatizirati medicinu do te mjere da ljudski sud postane nepotreban.

Pobjednici? Tvrtke koje razvijaju AI alate, svakako. Svaka nova prijetnja stvara potražnju za rješenjima, a rješenja znače profit. No postoji i dublji dobitnik: kultura koja sve više prihvaća simulaciju kao zamjenu za stvarnost. Ako rendgensku snimku možemo generirati, zašto ne bismo i dijagnozu? Zašto ne bismo i liječenje? Prava opasnost nije u tome što AI može zavarati ljude, već što ljudi sve manje žele razlikovati istinu od laži.

I tu priča postaje zanimljivija od same objave. Jer na kraju, pravo pitanje nije mogu li AI snimke zavarati radiologe, već što se događa kad cijelom društvu postane svejedno. Ako većina ljudi ne vidi razliku između stvarnog pacijenta i algoritma, hoćemo li početi vjerovati da ni ljude nije teško zamijeniti? Studije poput ove nisu samo znanstveni eksperimenti – oni su ogledala naših vlastitih vrijednosti.

Odgovor možda nije u tehnologiji, već u našoj sposobnosti da postavljamo prava pitanja. Ako AI može zavarati stručnjake, tko će onda zaštititi pacijente – i nas same – od vlastite lakovjernosti?

AI in healthcaremedical AI regulationphysician trust in AIclinical decision-making automationpatient safety risks

//Comments