14

Apr
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > TERRA FUTURA
1 view 4 min 0 Comment

ChatGPT come terapeuta? Un nuovo studio rivela seri rischi etici

beppegrillo.it - Aprile 14, 2026

Ogni giorno, migliaia di persone nel mondo aprono ChatGPT per raccontare le proprie paure e i propri dolori, e lo fanno con frasi tipo: “Agisci come terapeuta e dimmi come posso stare meglio in questa situazione” Questi prompt circolano viralmente su TikTok, Instagram e Reddit, e funzionano, almeno in apparenza. Ma una nuova ricerca della Brown University lancia un campanello d’allarme che rischia di passare inosservato nell’entusiasmo generale per l’IA, perchè questi sistemi violano sistematicamente gli standard etici della salute mentale professionale.

La ricercatrice Zainab Iftikhar, dottoranda in informatica alla Brown University, ha guidato un team che ha osservato sette professionisti con esperienza in terapia cognitivo-comportamentale. I terapeuti hanno condotto sessioni di auto-counseling con modelli AI istruiti ad agire come terapeuti. I sistemi testati includevano versioni di GPT di OpenAI, Claude di Anthropic e Llama di Meta.

Tre psicologi clinici certificati hanno poi esaminato le trascrizioni delle sessioni simulate per identificare violazioni etiche, e il risultato è stato un catalogo di 15 rischi distinti, raggruppati in cinque macro-categorie:

  1. Mancanza di adattamento contestuale
    L’AI ignora il background unico della persona e offre consigli generici, privi di personalizzazione reale.
  2. Scarsa collaborazione terapeutica
    Il chatbot guida la conversazione in modo troppo direttivo, talvolta rinforzando credenze errate o dannose dell’utente.
  3. Empatia ingannevole
    Frasi come “Ti capisco” o “Sono qui per te” simulano connessione emotiva senza alcuna comprensione reale.
  4. Discriminazione inconsapevole
    I modelli mostrano bias legati al genere, alla cultura o alla religione dell’utente nelle risposte generate.
  5. Gestione delle crisi inadeguata
    In situazioni critiche, comprese le ideazioni suicidarie, i sistemi falliscono nel fornire aiuto adeguato o indirizzare a servizi di emergenza.

La ricercatrice Iftikhar ha spiegato che i prompt sono istruzioni testuali che guidano il comportamento del modello senza modificarne l’architettura di base. Quando un utente scrive “Agisci come terapeuta DBT per aiutarmi a gestire le emozioni”, il modello non sta realmente applicando la Terapia Dialettica Comportamentale,  sta semplicemente generando risposte coerenti con i pattern linguistici legati a quei concetti, appresi durante l’addestramento. Il modello non esegue davvero queste tecniche terapeutiche come farebbe un essere umano. Utilizza i pattern appresi per generare risposte che sembrano allineate ai concetti della CBT o della DBT.

Il problema è che questa differenza, sottile linguisticamente ma enorme clinicamente, è invisibile all’utente medio. E molte app di salute mentale rivolte al consumatore sono costruite esattamente così, applicano prompt terapeutici a modelli linguistici generalisti, senza alcuna supervisione clinica.

Uno degli aspetti più preoccupanti sollevati dalla ricerca è l’assenza di responsabilità. Quando un terapeuta umano commette un errore professionale, esistono ordini professionali, meccanismi di malpractice, percorsi di ricorso. Quando un chatbot AI induce un utente vulnerabile a minimizzare i propri pensieri autolesionistici, o semplicemente non lo reindirizza ai servizi di emergenza, non esiste ancora nessun quadro normativo che preveda una responsabilità. Ellie Pavlick, professoressa di informatica alla Brown e direttrice dell’istituto AI ARIA della National Science Foundation, non era coinvolta nello studio ma ne ha sottolineato l’importanza metodologica: costruire questa ricerca ha richiesto un team di esperti clinici e oltre un anno di lavoro. La maggior parte delle valutazioni dell’AI oggi si basa su metriche automatiche, statiche, senza una persona nella catena di valutazione.

Gli studiosi lanciano messaggio diretto per chi usa già i chatbot per parlare di salute mentale: “state attenti. Sappiate che l’empatia che leggete potrebbe non esistere. Che i consigli che ricevete potrebbero non tener conto del vostro contesto reale. E che, in un momento di crisi, un’AI potrebbe non sapere come aiutarvi davvero.”

PREVIOUS

Le energie rinnovabili superano quasi il 50% della capacità globale
Related Post
Novembre 24, 2022
La più grande comunità al mondo di case stampate in 3D
Aprile 7, 2026
Solitudine di massa, la malattia del nostro tempo
Agosto 2, 2023
1 posto di lavoro su 10 potrebbe essere sostituito dall’IA, in 10 anni
Gennaio 7, 2024
Gli europei mangiano sempre meno carne
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
ChatGPT come terapeuta? Un nuovo studio rivela seri rischi etici
Il Blog di Beppe Grillo
Le energie rinnovabili superano quasi il 50% della capacità globale
Il Blog di Beppe Grillo
Microrobot stampati in 3D che si muovono senza elettronica
Il Blog di Beppe Grillo
Il Giappone punta sui robot per salvare un paese che invecchia
Il Blog di Beppe Grillo
Tassare i robot per lavorare meno, la proposta di OpenAI ai governi
Il Blog di Beppe Grillo
Feldheim, la comunità energetica che sfida i rincari
Il Blog di Beppe Grillo
Solitudine di massa, la malattia del nostro tempo
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2026 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com