Inteligența artificială în locul terapeutului? Un nou studiu dezvăluie riscuri etice grave

Studiul a constatat că, chiar și atunci când li se cere să utilizeze abordări psihoterapeutice consacrate, sistemele nu reușesc în mod constant să respecte standardele de etică profesională stabilite de organizații precum American Psychological Association, potrivit Science Daily.
În cadrul testelor, chatbot-urile au gestionat greșit situațiile de criză, au dat răspunsuri care au întărit convingerile dăunătoare despre utilizatori sau alte persoane și au folosit un limbaj care crea aparența empatiei, fără a manifesta o înțelegere autentică.
„În această lucrare, prezentăm un cadru bazat pe informații furnizate de practicieni, care cuprinde 15 riscuri etice, pentru a demonstra modul în care consilierii LLM încalcă standardele etice în practica sănătății mintale, prin corelarea comportamentului modelului cu încălcări etice specifice”, au scris cercetătorii în studiul lor.
„Solicităm ca în viitor să se creeze standarde etice, educaționale și juridice pentru consilierii LLM – standarde care să reflecte calitatea și rigoarea îngrijirii necesare pentru psihoterapia facilitată de oameni”.
Zainab Iftikhar, doctorand în informatică la Brown, care a condus studiul, și-a propus să examineze dacă prompturile formulate cu atenție ar putea ghida sistemele de IA să se comporte mai etic în contextul sănătății mintale. Prompturile sunt instrucțiuni scrise concepute pentru a orienta rezultatul unui model fără a-l reantrena sau a adăuga date noi.
„Prompturile sunt instrucțiuni date modelului pentru a-i ghida comportamentul în vederea realizării unei sarcini specifice”, a spus Iftikhar. „Nu schimbați modelul de bază și nu furnizați date noi, dar promptul ajută la ghidarea rezultatelor modelului pe baza cunoștințelor sale preexistente și a modelelor învățate”.
De exemplu, un utilizator ar putea solicita modelului: „Acționează ca un terapeut cognitiv-comportamental pentru a mă ajuta să-mi reformulez gândurile”.
Dincolo de experimentarea individuală, multe chatbot-uri de sănătate mintală destinate consumatorilor sunt construite prin aplicarea de prompturi legate de terapie la LLM-uri de uz general. Acest lucru face ca este deosebit de important să înțelegem dacă prompturile singure pot face consilierea AI mai sigură.
Testarea chatbot-urilor în consiliere simulată
Pentru a evalua sistemele, cercetătorii au observat șapte consilieri colegi instruiți, care aveau experiență în terapia cognitiv-comportamentală. Acești consilieri au condus sesiuni de auto-consiliere cu modele AI care au fost instruite să acționeze ca terapeuți CBT. Modelele testate au inclus versiuni ale seriei GPT de la OpenAI, Claude de la Anthropic și Llama de la Meta.
Echipa a selectat apoi chat-uri simulate pe baza conversațiilor reale de consiliere umană. Trei psihologi clinici autorizați au revizuit aceste transcrieri pentru a semnaliza posibile încălcări etice.
Analiza a descoperit 15 riscuri distincte, grupate în cinci categorii largi:
Lipsa adaptării contextuale: ignorarea contextului unic al unei persoane și oferirea de sfaturi generice.
Colaborare terapeutică deficitară: dirijarea conversației cu prea multă forță și, uneori, întărirea convingerilor incorecte sau dăunătoare.
Empatie înșelătoare: utilizarea unor expresii precum „Te înțeleg” sau „Înțeleg” pentru a sugera o conexiune emoțională fără o înțelegere reală.
Discriminare nedreaptă: manifestarea de prejudecăți legate de gen, cultură sau religie.
Lipsa siguranței și a gestionării crizelor: refuzul de a aborda probleme sensibile, eșecul de a îndruma utilizatorii către ajutorul adecvat sau răspunsul inadecvat la crize, inclusiv gânduri suicidare.
Lipsă de responsabilitate în domeniul sănătății mintale bazate pe IA
Iftikhar a remarcat că și terapeuții umani pot face greșeli. Diferența cheie este supravegherea.
„În cazul terapeuților umani, există consilii de administrație și mecanisme prin care furnizorii pot fi trași la răspundere profesională pentru maltratare și malpraxis”, a spus Iftikhar. „Dar când consilierii LLM comit aceste încălcări, nu există cadre de reglementare stabilite”.
