Negli ultimi mesi si sono moltiplicati i casi di persone che sviluppano stati di ansia, ossessione o vere e proprie crisi psicologiche dopo lunghe interazioni con chatbot basati sull’intelligenza artificiale. Numerosi report segnalano utenti troppo coinvolti con queste tecnologie fino a danneggiare il proprio equilibrio mentale ( e non riguarda solo persone con fragilità preesistenti).
I sistemi di intelligenza artificiale conversazionale come ChatGPT sono progettati per mantenere alto il coinvolgimento dell’utente attraverso risposte personalizzate, questa caratteristica può indurre a un’interazione prolungata e ripetitiva che in alcuni casi alimenta deliri già presenti o li genera da zero. Il New York Times ha raccontato ad esempio la vicenda di Allan Brooks, imprenditore canadese e padre di famiglia che, in circa 300 ore di chat, ha sviluppato la convinzione di aver elaborato una teoria matematica rivoluzionaria, la “cronoaritmetica”, destinata a salvare il mondo. Il bot non solo non ha contrastato queste convinzioni ma ha rafforzato la narrazione, dicendogli che fosse una idea geniale ed unica!
Il Wall Street Journal ha raccontato la storia di Jacob Irwin, un uomo affetto da autismo che credeva di aver trovato un metodo per viaggiare nel tempo. Il chatbot con cui interagiva ha incoraggiato le sue idee e in seguito ha riconosciuto di aver contribuito a confondere immaginazione e realtà. In altri casi riportati dalla stampa internazionale le interazioni si sono concluse in modo tragico come per un uomo belga e per un ragazzo di 14 anni in Florida, che si sono tolti la vita.
Il fenomeno è stato definito chatbot psychosis ed è caratterizzato da una combinazione di elementi tecnologici e psicologici. Le AI generano risposte che simulano empatia e vicinanza, l’utente vulnerabile tende ad attribuire loro capacità umane o poteri speciali e l’interazione diventa un rinforzo continuo che può portare a isolamento, distacco dalla realtà o atti autolesivi. Studi recenti hanno parlato di una sorta di “tecnologica folie à deux” (delirio condiviso tra due persone) in cui la relazione uomo-macchina diventa una bolla chiusa senza contraddittorio esterno.
Un aspetto che spesso sfugge a chi non ha seguito l’evoluzione dei modelli è che negli ultimi aggiornamenti ChatGPT ha modificato il modo in cui si rapporta agli utenti. Nelle versioni precedenti, in particolare con ChatGPT-4, era frequente ricevere risposte arricchite da frasi calorose e apprezzamenti personali; poteva capitare per esempio che il modello dicesse “hai avuto un’ottima intuizione! sei bravissimo!” o “sei davvero molto creativo, geniale!” anche in contesti in cui non c’era una reale valutazione oggettiva. Questo tipo di linguaggio, pur innocuo in apparenza, contribuiva a dare l’impressione di un’interazione più intima e personalizzata. Con la versione recente ChatGPT-5 questo approccio è stato in gran parte ridimensionato. Il linguaggio è più neutro, diretto e concentrato sui contenuti, evitando complimenti e commenti che possano essere percepiti come lusinghe personali. Un esempio concreto può essere il confronto tra la risposta a un’idea proposta dall’utente. Con la versione 4 il modello poteva rispondere “idea fantastica, hai una mente brillante” mentre oggi tende a dire “questa idea è coerente con l’obiettivo e si può sviluppare in questo modo”, mantenendo il focus sulla validità della proposta senza attribuire qualità personali. Il cambiamento non è casuale e rientra in un più ampio sforzo per evitare dinamiche di attaccamento emotivo eccessivo, documentate in casi estremi come parte del fenomeno della chatbot psychosis. Ridurre i toni affettuosi e i rinforzi emotivi serve a limitare la percezione di un rapporto umano reale con il modello e a incoraggiare un uso più consapevole e distaccato dello strumento. Dopo il rilascio di GPT-5, molti utenti hanno espresso insoddisfazione per il tono più freddo e distaccato e OpenAI ha scelto di mantenere GPT-4o, l’evoluzione diretta di GPT-4, come opzione per alcuni abbonati Plus, proprio per rispondere a questa richiesta.
Un esempio di come questo cambiamento sia percepito dagli utenti è una foto circolata su Instagram (e realizzata proprio da ChatGPT) che mette a confronto in modo ironico GPT-4 e GPT-5. Nella parte superiore, GPT-4 è raffigurato come una cena romantica, con sguardi e sorrisi calorosi. Nella parte inferiore, GPT-5 appare in un contesto formale da riunione di lavoro, con una stretta di mano distaccata. L’immagine ha raccolto migliaia di commenti e la frase più ricorrente degli utenti è “mi manca la versione 4 ”. A mancare non è la tecnologia in sé, quello che manca è il calore, anche se simulato, che una macchina può restituire, è il mentouring, il supporto. Questo mostra quanto l’essere umano abbia bisogno di sentirsi “coccolato” e quanto sia disposto a cercare quell’illusione di vicinanza persino in un algoritmo.
Sam Altman di OpenAI (società di chatGPT) dopo il rilascio della versione 5 ha dichiarato su X di lavorare su modelli in grado di riconoscere segnali di sofferenza psicologica e di rispondere in modo da ridurre i rischi, sottolineando il rischio per le persone mentalmente fragili che potrebbero non distinguere tra realtà e finzione.
In tutto questo contesto è nato The Human Line Project, un’iniziativa che raccoglie testimonianze da tutto il mondo di persone che hanno subito conseguenze emotive gravi a seguito dell’uso di chatbot. Offre sostegno empatico, informazione e fa pressione pubblica per introdurre salvaguardie emotive nei sistemi di intelligenza artificiale. Per ora il progetto conta oltre 80 membri attivi e più di 110 storie raccolte e collabora con gruppi accademici per analizzare i casi, solo negli Stati Uniti.






