24

Apr
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > TERRA FUTURA
27 views 4 min 0 Comment

ChatGPT come terapeuta? Un nuovo studio rivela seri rischi etici

beppegrillo.it - Aprile 14, 2026

Ogni giorno, migliaia di persone nel mondo aprono ChatGPT per raccontare le proprie paure e i propri dolori, e lo fanno con frasi tipo: “Agisci come terapeuta e dimmi come posso stare meglio in questa situazione” Questi prompt circolano viralmente su TikTok, Instagram e Reddit, e funzionano, almeno in apparenza. Ma una nuova ricerca della Brown University lancia un campanello d’allarme che rischia di passare inosservato nell’entusiasmo generale per l’IA, perchè questi sistemi violano sistematicamente gli standard etici della salute mentale professionale.

La ricercatrice Zainab Iftikhar, dottoranda in informatica alla Brown University, ha guidato un team che ha osservato sette professionisti con esperienza in terapia cognitivo-comportamentale. I terapeuti hanno condotto sessioni di auto-counseling con modelli AI istruiti ad agire come terapeuti. I sistemi testati includevano versioni di GPT di OpenAI, Claude di Anthropic e Llama di Meta.

Tre psicologi clinici certificati hanno poi esaminato le trascrizioni delle sessioni simulate per identificare violazioni etiche, e il risultato è stato un catalogo di 15 rischi distinti, raggruppati in cinque macro-categorie:

  1. Mancanza di adattamento contestuale
    L’AI ignora il background unico della persona e offre consigli generici, privi di personalizzazione reale.
  2. Scarsa collaborazione terapeutica
    Il chatbot guida la conversazione in modo troppo direttivo, talvolta rinforzando credenze errate o dannose dell’utente.
  3. Empatia ingannevole
    Frasi come “Ti capisco” o “Sono qui per te” simulano connessione emotiva senza alcuna comprensione reale.
  4. Discriminazione inconsapevole
    I modelli mostrano bias legati al genere, alla cultura o alla religione dell’utente nelle risposte generate.
  5. Gestione delle crisi inadeguata
    In situazioni critiche, comprese le ideazioni suicidarie, i sistemi falliscono nel fornire aiuto adeguato o indirizzare a servizi di emergenza.

La ricercatrice Iftikhar ha spiegato che i prompt sono istruzioni testuali che guidano il comportamento del modello senza modificarne l’architettura di base. Quando un utente scrive “Agisci come terapeuta DBT per aiutarmi a gestire le emozioni”, il modello non sta realmente applicando la Terapia Dialettica Comportamentale,  sta semplicemente generando risposte coerenti con i pattern linguistici legati a quei concetti, appresi durante l’addestramento. Il modello non esegue davvero queste tecniche terapeutiche come farebbe un essere umano. Utilizza i pattern appresi per generare risposte che sembrano allineate ai concetti della CBT o della DBT.

Il problema è che questa differenza, sottile linguisticamente ma enorme clinicamente, è invisibile all’utente medio. E molte app di salute mentale rivolte al consumatore sono costruite esattamente così, applicano prompt terapeutici a modelli linguistici generalisti, senza alcuna supervisione clinica.

Uno degli aspetti più preoccupanti sollevati dalla ricerca è l’assenza di responsabilità. Quando un terapeuta umano commette un errore professionale, esistono ordini professionali, meccanismi di malpractice, percorsi di ricorso. Quando un chatbot AI induce un utente vulnerabile a minimizzare i propri pensieri autolesionistici, o semplicemente non lo reindirizza ai servizi di emergenza, non esiste ancora nessun quadro normativo che preveda una responsabilità. Ellie Pavlick, professoressa di informatica alla Brown e direttrice dell’istituto AI ARIA della National Science Foundation, non era coinvolta nello studio ma ne ha sottolineato l’importanza metodologica: costruire questa ricerca ha richiesto un team di esperti clinici e oltre un anno di lavoro. La maggior parte delle valutazioni dell’AI oggi si basa su metriche automatiche, statiche, senza una persona nella catena di valutazione.

Gli studiosi lanciano messaggio diretto per chi usa già i chatbot per parlare di salute mentale: “state attenti. Sappiate che l’empatia che leggete potrebbe non esistere. Che i consigli che ricevete potrebbero non tener conto del vostro contesto reale. E che, in un momento di crisi, un’AI potrebbe non sapere come aiutarvi davvero.”

PREVIOUS

Le energie rinnovabili superano quasi il 50% della capacità globale

NEXT

Microplastiche ovunque: nel latte in polvere, nei cosmetici e nelle protesi
Related Post
Dicembre 23, 2020
I materiali prodotti dall’uomo superano l’intera biomassa della Terra
Ottobre 12, 2025
L’Irlanda introduce il Reddito Universale per gli artisti
Marzo 23, 2019
Terrapiattisti: spedizione in Antartide fino al bordo del mondo!
Novembre 12, 2020
Housing First: come la Finlandia ha ridotto il numero dei senzatetto
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
Deezer: Il 44% dei nuovi brani musicali caricati online è generato dall’IA
Il Blog di Beppe Grillo
6 donne vincono il Goldman Prize 2026, il “Nobel” dell’Ambiente
Il Blog di Beppe Grillo
Neuroni artificiali stampati che “parlano” con il cervello
Il Blog di Beppe Grillo
Nella guerra di propaganda sull’IA, l’Iran sta vincendo
Il Blog di Beppe Grillo
Sciami di IA potrebbero manipolare la democrazia senza che nessuno se ne accorga
Il Blog di Beppe Grillo
Una persona su sette soffre di disturbi mentali. E a rispondere ora è un algoritmo
Il Blog di Beppe Grillo
L’IA rischia di diventare il 5° paese al mondo per consumo energetico
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2026 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com