La recente inchiesta del The Guardian di cui abbiamo parlato qualche settimana fa, ha acceso un campanello d’allarme sulle panoramiche basate sull’intelligenza artificiale di Google e sul loro utilizzo per ottenere informazioni sanitarie. Secondo il quotidiano britannico, in diversi casi i riepiloghi generati dall’IA, mostrati in cima ai risultati di ricerca, hanno fornito consigli giudicati da esperti come fuorvianti, errati o potenzialmente pericolosi. Google ha respinto le critiche, sostenendo che molti esempi sono stati estrapolati dal contesto e che la maggior parte delle panoramiche basate sull’IA è accurata e rimanda a fonti affidabili.
Al di là dei singoli casi, però, resta una questione più ampia. Da dove provengono realmente i consigli sanitari generati dall’intelligenza artificiale?
Per approfondire questo aspetto, è stata condotta quindi un’analisi su oltre 50.000 ricerche sanitarie in Germania, un Paese scelto per il suo sistema sanitario fortemente regolamentato da norme nazionali ed europee.
Lo studio ha rivelato che la fonte più citata è Youtube. “E’ un dato molto importante”, hanno scritto i ricercatori. “Perché YouTube non è un editore medico”, “È una piattaforma video multiuso. Chiunque può caricare contenuti (ad esempio medici certificati, canali ospedalieri, ma anche influencer del benessere, life coach e creatori senza alcuna formazione medica” (Youtube è il secondo sito web più visitato al mondo, dopo Google stesso, ed è di proprietà di Google).
Circa due terzi delle fonti citate dalle panoramiche basate sull’intelligenza artificiale non offrono solide garanzie di affidabilità medica. Youtube rappresenta il 4,43% di tutte le citazioni nelle panoramiche AI, una quota oltre tre volte superiore rispetto a netdoktor.de, uno dei principali portali sanitari per i consumatori in Germania, e più del doppio rispetto ai Manuali MSD, un riferimento medico basato su evidenze scientifiche.
Google ha dichiarato che AI Overviews è stato progettato per far emergere contenuti di alta qualità da fonti affidabili, indipendentemente dal formato, e che una varietà di autorità sanitarie autorevoli e professionisti medici autorizzati hanno creato contenuti su YouTube. I risultati dello studio non potevano essere estrapolati ad altre regioni, poiché sono stati condotti utilizzando query in lingua tedesca in Germania, ha affermato.
Nel complesso, solo il 34% delle citazioni proviene da fonti considerate affidabili, come ospedali, fondazioni sanitarie, assicurazioni sanitarie, istituzioni governative o fornitori di informazioni sanitarie certificati. Le istituzioni sanitarie pubbliche e le riviste accademiche rappresentano meno dell’1% delle citazioni. Allo stesso tempo, oltre il 65% delle fonti proviene da siti web privi di revisione medica formale o di garanzie basate sull’evidenza scientifica.
Un altro elemento rilevante riguarda la differenza tra le fonti privilegiate dall’IA e quelle che compaiono nei risultati di ricerca tradizionali di Google. YouTube è al primo posto tra le fonti citate dall’intelligenza artificiale per le ricerche sulla salute, ma si colloca solo all’11° posto nei risultati organici. Questo indica che l’IA tende a privilegiare i contenuti video anche quando sono disponibili fonti più autorevoli e facilmente reperibili. L’analisi mostra anche che l’autorità del dominio spesso pesa più della competenza specifica. Un esempio è praktischarzt.de, una piattaforma pensata principalmente per il networking e il reclutamento di medici, che compare tra i primi cinque domini citati dall’IA, pur non essendo un’autorità sanitaria vera e propria.
Un altro dato significativo riguarda i singoli URL. Solo il 36% dei link citati dalle panoramiche AI compare nella top 10 dei risultati di Google. Il 54% appare nella top 20 e il 74% nella top 100. Questo significa che una parte rilevante delle fonti utilizzate dall’intelligenza artificiale non sarebbe normalmente visibile agli utenti tramite una ricerca standard.
Il modo in cui le persone cercano informazioni sanitarie sta cambiando rapidamente. Per anni si è parlato ironicamente di “Dr. Google”. Oggi, sempre più spesso, gli utenti si trovano davanti a un’unica risposta generata dall’intelligenza artificiale, presentata come sintesi affidabile. In Germania questo cambiamento è misurabile. Il 55% degli utenti di chatbot dichiara di affidarsi all’intelligenza artificiale per ricevere consigli sulla salute. Circa il 50% afferma che l’IA li aiuta a comprendere i sintomi meglio di una ricerca tradizionale. Per il 30%, la risposta dell’IA equivale a un secondo parere medico. Il 16% dichiara di aver ignorato il consiglio del proprio medico perché l’intelligenza artificiale suggeriva qualcosa di diverso. In questo contesto, le panoramiche basate sull’intelligenza artificiale stanno diventando un livello primario di informazione sanitaria. Lo studio mostra che oltre l’82% delle ricerche sulla salute in Germania attiva una panoramica AI. Questo significa che, nella maggior parte dei casi, gli utenti ricevono una risposta automatica invece di un elenco di link da valutare autonomamente.
La ricerca conferma quindi che il problema non riguarda solo singoli errori o casi isolati. La maggior parte delle risposte sanitarie generate dall’intelligenza artificiale si basa in larga misura su piattaforme generaliste, siti commerciali e blog multiargomento. Anche quando alcuni contenuti provengono da fonti serie, il sistema nel suo insieme privilegia visibilità e autorità del dominio più che rigore scientifico.
Per informazioni leggere o di carattere generale, questo approccio può sembrare accettabile. Quando si parla di salute, diagnosi, terapie e condizioni potenzialmente gravi, diventa un problema strutturale.





