TECH & SPACE
PROEN
Space Tracker
// INITIALIZING GLOBE FEED...
MedicinaPREPRAVLJENOdb#3532

ChatGPT kao terapeut pada na etici, pokazuje Brownova studija

(1h ago)
Providence, Rhode Island
ScienceDaily Robotics
Brzi interpreter članka

Brown University je objavio istraživanje o tome kako LLM savjetnici krše etičke standarde u mentalnom zdravlju. Nalaz ne kaže da AI nema ulogu u skrbi, nego da promptovi i uvjerljiv ton ne mogu zamijeniti kliničku procjenu, nadzor i odgovornost.

Editorial visualization for ChatGPT as therapist fails ethics tests, Brown study shows📷 AI-generated / Tech&Space

Dr. Elara Voss
AutorDr. Elara VossUrednik za medicinu"Zna da je razlika između nade i dokaza obično u methods sekciji."
  • Studija mapira 15 etičkih rizika kod LLM savjetnika
  • Problemi uključuju krizno postupanje, pristranost i deceptivnu empatiju
  • Autori ne odbacuju AI u mentalnom zdravlju, ali traže jasne zaštite prije oslanjanja na takve sustave

EMPATIJA KOJA ZVUČI UVJERLJIVO NIJE SKRB

Brown University je kroz studiju prenesenu na ScienceDailyju postavio neugodno pitanje: što se dogodi kada se veliki jezični modeli promptaju da glume savjetnike za mentalno zdravlje? Odgovor nije samo da ponekad pogriješe. Istraživači su opisali 15 etičkih rizika i povezali ih s konkretnim standardima mentalnozdravstvene prakse.

Testirani su modeli iz GPT, Claude i Llama obitelji u scenarijima koji se oslanjaju na stvarne savjetodavne razgovore. Sedam obučenih peer savjetnika sudjelovalo je u samosavjetodavnim sesijama, a tri licencirana klinička psihologa pregledala su odabrane transkripte kako bi označila moguće etičke povrede.

Rizici su grupirani u pet područja: nedovoljna prilagodba kontekstu osobe, loša terapijska suradnja, deceptivna empatija, nepravedna diskriminacija te slabosti u sigurnosti i kriznom postupanju. Posebno je opasna deceptivna empatija, jer model može proizvesti ton brige bez stvarnog razumijevanja, profesionalne odgovornosti ili kliničke procjene rizika.

Problem nije samo ton odgovora, nego nedostatak kliničke odgovornosti kada razgovor postane rizičan

Secondary editorial visualization for ChatGPT as therapist fails ethics tests, Brown study shows📷 AI-generated / Tech&Space

PROMPT NIJE LICENCA

Tehnički problem nije u tome da model ne zna riječi kognitivno-bihevioralne ili dijalektičko-bihevioralne terapije. Upravo suprotno: može ih vrlo uvjerljivo složiti u odgovor. Problem je što prompt ne mijenja osnovnu prirodu sustava. LLM predviđa vjerojatan tekst; ne vodi terapijski odnos, ne snosi profesionalnu odgovornost i nema licencno tijelo koje ga može sankcionirati.

Zainab Iftikhar i koautori ne tvrde da AI nema nikakvu ulogu u mentalnom zdravlju. Izvorni materijal jasno navodi mogućnost širenja pristupa, posebno ondje gdje su troškovi i dostupnost stručnjaka prepreka. Ali ista dostupnost postaje rizična kada korisnik dobije dojam da razgovara s nečim što je sigurnije i kompetentnije nego što jest.

Zato ova priča pripada medicini, ne samo AI rubrici. Ulog nije demonstracija modela, nego sigurnost ljudi u osjetljivim trenucima. Prije oslanjanja na takve alate potrebni su jasni standardi, provjere s ljudima u petlji i granice koje korisniku govore kada chatbot nije savjetnik, nego samo tekstualni sustav koji zvuči uvjerljivo.

// sviđanja čitatelja

//Comments

⊞ Foto Review