Ogni giorno, migliaia di persone nel mondo aprono ChatGPT per raccontare le proprie paure e i propri dolori, e lo fanno con frasi tipo: “Agisci come terapeuta e dimmi come posso stare meglio in questa situazione” Questi prompt circolano viralmente su TikTok, Instagram e Reddit, e funzionano, almeno in apparenza. Ma una nuova ricerca della Brown University lancia un campanello d’allarme che rischia di passare inosservato nell’entusiasmo generale per l’IA, perchè questi sistemi violano sistematicamente gli standard etici della salute mentale professionale.
La ricercatrice Zainab Iftikhar, dottoranda in informatica alla Brown University, ha guidato un team che ha osservato sette professionisti con esperienza in terapia cognitivo-comportamentale. I terapeuti hanno condotto sessioni di auto-counseling con modelli AI istruiti ad agire come terapeuti. I sistemi testati includevano versioni di GPT di OpenAI, Claude di Anthropic e Llama di Meta.
Tre psicologi clinici certificati hanno poi esaminato le trascrizioni delle sessioni simulate per identificare violazioni etiche, e il risultato è stato un catalogo di 15 rischi distinti, raggruppati in cinque macro-categorie:
- Mancanza di adattamento contestuale
L’AI ignora il background unico della persona e offre consigli generici, privi di personalizzazione reale. - Scarsa collaborazione terapeutica
Il chatbot guida la conversazione in modo troppo direttivo, talvolta rinforzando credenze errate o dannose dell’utente. - Empatia ingannevole
Frasi come “Ti capisco” o “Sono qui per te” simulano connessione emotiva senza alcuna comprensione reale. - Discriminazione inconsapevole
I modelli mostrano bias legati al genere, alla cultura o alla religione dell’utente nelle risposte generate. - Gestione delle crisi inadeguata
In situazioni critiche, comprese le ideazioni suicidarie, i sistemi falliscono nel fornire aiuto adeguato o indirizzare a servizi di emergenza.
La ricercatrice Iftikhar ha spiegato che i prompt sono istruzioni testuali che guidano il comportamento del modello senza modificarne l’architettura di base. Quando un utente scrive “Agisci come terapeuta DBT per aiutarmi a gestire le emozioni”, il modello non sta realmente applicando la Terapia Dialettica Comportamentale, sta semplicemente generando risposte coerenti con i pattern linguistici legati a quei concetti, appresi durante l’addestramento. Il modello non esegue davvero queste tecniche terapeutiche come farebbe un essere umano. Utilizza i pattern appresi per generare risposte che sembrano allineate ai concetti della CBT o della DBT.
Il problema è che questa differenza, sottile linguisticamente ma enorme clinicamente, è invisibile all’utente medio. E molte app di salute mentale rivolte al consumatore sono costruite esattamente così, applicano prompt terapeutici a modelli linguistici generalisti, senza alcuna supervisione clinica.
Uno degli aspetti più preoccupanti sollevati dalla ricerca è l’assenza di responsabilità. Quando un terapeuta umano commette un errore professionale, esistono ordini professionali, meccanismi di malpractice, percorsi di ricorso. Quando un chatbot AI induce un utente vulnerabile a minimizzare i propri pensieri autolesionistici, o semplicemente non lo reindirizza ai servizi di emergenza, non esiste ancora nessun quadro normativo che preveda una responsabilità. Ellie Pavlick, professoressa di informatica alla Brown e direttrice dell’istituto AI ARIA della National Science Foundation, non era coinvolta nello studio ma ne ha sottolineato l’importanza metodologica: costruire questa ricerca ha richiesto un team di esperti clinici e oltre un anno di lavoro. La maggior parte delle valutazioni dell’AI oggi si basa su metriche automatiche, statiche, senza una persona nella catena di valutazione.
Gli studiosi lanciano messaggio diretto per chi usa già i chatbot per parlare di salute mentale: “state attenti. Sappiate che l’empatia che leggete potrebbe non esistere. Che i consigli che ricevete potrebbero non tener conto del vostro contesto reale. E che, in un momento di crisi, un’AI potrebbe non sapere come aiutarvi davvero.”





