27

Mar
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > SALUTE
91 views 4 min 0 Comment

Quando Google AI fa il medico e sbaglia! L’inchiesta di The Guardian

beppegrillo.it - Gennaio 3, 2026

Quando oggi si fa una ricerca su Google, spesso, prima dei risultati, in alto compare un riquadro che riassume la risposta alla domanda usando l’intelligenza artificiale. Google lo chiama AI Overview; è una sintesi automatica che prende informazioni da varie fonti online e le presenta come una risposta pronta, apparentemente ordinata e rassicurante. Ecco di seguito come appare dai dispostivi mobili:

“Cosa mangiare con il colesterolo alto”? Prima ancora di leggere articoli o siti medici, Google ti mostra un testo che elenca cibi consigliati e cibi da evitare. Molti utenti si fermano lì, non cliccano altro. Quel riquadro diventa di fatto il medico, il nutrizionista o il consulente sanitario.

È proprio qui che nasce il problema raccontato da un’inchiesta di The Guardian. Secondo l’indagine, alcune panoramiche AI di Google in ambito sanitario contengono informazioni false o fuorvianti che possono mettere a rischio la salute delle persone.

In un caso giudicato molto pericoloso dagli esperti, Google ha suggerito ai pazienti con cancro al pancreas di evitare i cibi ricchi di grassi. È l’opposto di ciò che viene raccomandato nella pratica clinica. Le persone con questo tipo di tumore hanno spesso bisogno di un apporto calorico elevato per mantenere il peso e riuscire a tollerare terapie come chemioterapia o interventi chirurgici. Seguire quel consiglio può indebolire il corpo e ridurre le possibilità di cura.

Altri esempi riguardano gli esami del fegato. Cercando online quale sia il range normale dei valori epatici, l’AI Overview mostrava numeri senza spiegazioni, senza contesto e senza considerare età, sesso o provenienza geografica. Secondo le organizzazioni sanitarie questo può portare persone con malattie epatiche serie a credere di avere esami normali e a rinviare controlli fondamentali.

Anche le ricerche sui tumori femminili hanno prodotto risultati errati. In alcuni casi il pap test veniva indicato come esame per il cancro vaginale…Non lo è. Chi riceve un’informazione di questo tipo potrebbe ignorare sintomi reali pensando di essere al sicuro dopo uno screening che in realtà serve a tutt’altro.

L’inchiesta ha rilevato risposte fuorvianti anche su disturbi della salute mentale, con suggerimenti considerati dannosi o tali da scoraggiare le persone dal chiedere aiuto professionale. Di fronte alle criticità emerse, Google ha respinto le accuse. Un portavoce dell’azienda ha affermato che molti degli esempi sanitari condivisi erano “screenshot incompleti”, ma che da quanto hanno potuto valutare le panoramiche “hanno collegato fonti note e affidabili e hanno raccomandato di chiedere consiglio a un esperto”.

L’azienda ha inoltre dichiarato che “la stragrande maggioranza delle sue panoramiche basate sull’intelligenza artificiale era concreta e utile” e che il tasso di accuratezza delle AI Overview è “in linea con quello delle altre funzionalità di ricerca, come gli snippet in primo piano, presenti da oltre un decennio”.

Google ha anche spiegato che “qualora AI Overview interpretasse male i contenuti web o non cogliesse il contesto, avrebbe preso le misure appropriate in base alle sue politiche”. In una dichiarazione finale, un portavoce ha aggiunto: “Investiamo in modo significativo nella qualità delle panoramiche basate sull’intelligenza artificiale, in particolare per argomenti come la salute, e la stragrande maggioranza fornisce informazioni accurate”.

Quando si tratta di salute, poche righe generate da un algoritmo non possono sostituire il contesto, la competenza e il confronto con un medico. Usatele per orientarvi magari, non per decidere della vostra salute. Quando un motore di ricerca sbaglia, a pagare non è l’algoritmo siete voi…

PREVIOUS

Dieci anni dopo l’accordo di Parigi: cosa resta?

NEXT

Perchè mangiare insetti è disgustoso?
Related Post
Gennaio 31, 2020
Il primo farmaco creato dall’Intelligenza Artificiale
Gennaio 8, 2024
La salute è politica
Settembre 12, 2019
Un dispositivo che permette di “sentire” gli arti artificiali
Gennaio 17, 2026
Smartphone e salute mentale dei giovani: un equilibrio difficile ma necessario
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
Volkswagen verso l’industria della guerra
Il Blog di Beppe Grillo
Zettajoule, il contatore nascosto della febbre del pianeta
Il Blog di Beppe Grillo
Meta e Google condannate a pagare 3 milioni per dipendenza da social
Il Blog di Beppe Grillo
L’India paga il lavoro invisibile di milioni di donne
Il Blog di Beppe Grillo
I giochi in realtà virtuale stanno riducendo l’isolamento sociale tra gli anziani
Il Blog di Beppe Grillo
La nuova geografia dei porti parla cinese
Il Blog di Beppe Grillo
WhatsApp rende più felici, TikTok e Instagram no
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2025 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com