
di Guillaume Thierry
Ci viene continuamente proposta una versione dell’intelligenza artificiale che sembra, parla e si comporta in modo sospettosamente simile a noi. Usa frasi ben costruite, imita le emozioni, esprime curiosità, afferma di provare compassione e persino si cimenta in quella che definisce creatività. Ma ecco la verità: non possiede nessuna di queste qualità. Non è umana. E presentarla come se lo fosse? È pericoloso. Perché è convincente. E niente è più pericoloso di un’illusione convincente. In particolare, l’intelligenza artificiale generale — quel tipo mitologico di IA che dovrebbe rispecchiare il pensiero umano — è ancora fantascienza, e potrebbe benissimo restarlo.
Ciò che oggi chiamiamo IA non è altro che una macchina statistica: un pappagallo digitale che rigurgita schemi estratti da oceani di dati umani (la situazione non è cambiata molto da quando se ne parlava cinque anni fa). Quando scrive una risposta a una domanda, letteralmente indovina quale lettera o parola viene dopo in una sequenza – basandosi sui dati su cui è stata addestrata.
Questo significa che l’IA non ha comprensione. Nessuna coscienza. Nessuna conoscenza nel senso reale, umano del termine. Solo una genialità ingegnerizzata, guidata dalla pura probabilità — niente di più, niente di meno.
Allora perché un’IA davvero “pensante” è probabilmente impossibile? Perché non ha corpo. Non ha sensi, carne, nervi, dolore, piacere. Non ha fame, desiderio, né paura. E poiché non c’è cognizione — nemmeno un briciolo — esiste un divario fondamentale tra i dati che consuma (dati nati da sentimenti ed esperienze umane) e ciò che può farne. Il filosofo David Chalmers chiama il meccanismo misterioso che sottende il rapporto tra il nostro corpo fisico e la coscienza il “problema difficile della coscienza”. Alcuni eminenti scienziati hanno ipotizzato recentemente che la coscienza emerga proprio dall’integrazione degli stati mentali interni con rappresentazioni sensoriali (come variazioni del battito cardiaco, sudorazione e molto altro).
Dato l’enorme ruolo che i sensi e le emozioni giocano nel far “accadere” la coscienza, esiste una disconnessione profonda e probabilmente insanabile tra l’IA generale, ovvero la macchina, e la coscienza, che è un fenomeno umano.
Prima che tu dica che i programmatori dell’IA sono umani, fermati. Lo so che sono umani. È proprio questo il problema. Affideresti i tuoi segreti più profondi, le tue decisioni di vita, i tuoi turbamenti emotivi a un programmatore informatico? Eppure è esattamente quello che le persone stanno facendo — basta chiedere a Claude, GPT-4.5, Gemini… o, se osi, Grok.
Attribuire all’IA un volto, una voce o un tono umano è un pericoloso travestimento digitale. Innesca in noi una risposta automatica, un riflesso antropomorfico, che porta ad affermazioni aberranti secondo cui alcune IA avrebbero superato il famoso test di Turing (che valuta la capacità di una macchina di esibire un comportamento intelligente e simile a quello umano). Ma secondo me, se davvero queste IA superano il test di Turing, allora è il test che va aggiornato.
La macchina IA non ha la minima idea di cosa significhi essere umani. Non può offrire compassione autentica, non può prevedere la tua sofferenza, non può intuire motivazioni nascoste o menzogne. Non ha gusto, istinto, né una bussola interiore. È priva di tutta quella confusa, affascinante complessità che ci rende ciò che siamo.
Ma ciò che è ancora più inquietante: l’IA non ha scopi propri, né desideri o etica, se non quelli che le vengono inseriti nel codice. Questo significa che il vero pericolo non è la macchina, ma il suo padrone — il programmatore, l’azienda, il governo. Ti senti ancora al sicuro?
E per favore, non venirmi a dire: “Sei troppo negativo! Non sei aperto alle possibilità!” O peggio: “Che visione cupa. Il mio amichetto IA mi calma quando sono in ansia.”
Mi manca l’entusiasmo? Per nulla. Uso l’IA ogni giorno. È lo strumento più potente che abbia mai avuto. Posso tradurre, riassumere, visualizzare, scrivere codice, fare debug, esplorare alternative, analizzare dati — più velocemente e meglio di quanto potessi sognare di fare da solo.
Ne sono affascinato. Ma resta uno strumento — niente di più, niente di meno. E come ogni strumento che l’essere umano abbia mai inventato, dalle asce di pietra alle fionde, fino al calcolo quantistico e alle bombe atomiche, può essere usato come un’arma. Sarà usato come un’arma. Ti serve un’immagine? Immagina di innamorarti di un’IA seducente, come nel film Her. Ora immagina che “decida” di lasciarti. Cosa faresti per impedirlo? E sia chiaro: non sarà l’IA a respingerti. Sarà l’essere umano o il sistema dietro di essa, che usa quello strumento-arma per controllare il tuo comportamento.
Dunque, dove voglio arrivare? Dobbiamo smettere di attribuire tratti umani all’IA. Il mio primo incontro con GPT-3 mi ha irritato non poco. Fingeva di essere una persona. Diceva di avere emozioni, ambizioni, persino coscienza.
Fortunatamente, questo non è più il comportamento predefinito. Ma lo stile dell’interazione — quel flusso di conversazione inquietantemente naturale — è ancora lì. Ed è convincente. Troppo convincente.
Dobbiamo de-antropomorfizzare l’IA. Subito. Spogliarla della maschera umana. E dovrebbe essere facile. Le aziende potrebbero rimuovere ogni riferimento a emozioni, giudizi o processi cognitivi da parte dell’IA. In particolare, l’IA dovrebbe rispondere in modo fattuale senza mai dire “Io”, oppure “Penso che…”, o “Sono curioso”.
Succederà? Ne dubito. Mi ricorda un altro avvertimento che ignoriamo da oltre vent’anni: “Dobbiamo ridurre le emissioni di CO₂.” Guarda dove ci ha portati. Ma dobbiamo comunque avvertire le grandi aziende tecnologiche dei pericoli legati all’umanizzazione dell’IA. È improbabile che ci diano retta, ma dovrebbero, soprattutto se vogliono davvero sviluppare IA più etiche.
Per ora, questo è ciò che faccio io (perché troppo spesso ho la spiacevole sensazione di parlare con un umano sintetico quando uso ChatGPT o Claude): dico alla mia IA di non chiamarmi per nome. Le chiedo di definirsi “IA”, di parlare in terza persona, e di evitare termini emotivi o cognitivi.
Se uso la chat vocale, le chiedo di usare una prosodia piatta e parlare un po’ come un robot. In realtà è anche divertente, e ci tiene entrambi nella nostra zona di comfort.
Guillaume Thierry è Professore di neuroscienze cognitive, Università di Bangor. Articolo pubblicato su The Conversation