di Marco Dotti e Fabio Scardigli – Di quale fisica, di quale biologia, di quale etica. Soprattutto: di quale filosofia abbiamo bisogno per capire e salvaguardare l’intelligenza naturale o umana al tempo dell’Artificial Intelligence (AI), del machine learning e dei deep neural networks?
Le domande non sono nuove. Non nuove sono anche le strade per eluderle: abbracciare con entusiasmo autoreferenziale ogni promessa di redenzione tecnologica; oppure alzare mura di difesa fondate sulla paglia di un moralismo incerto e fragile.
Una terza via, ben più solida, è però urgente e necessaria. Questa via si apre a un livello dove i saperi, umanistico e scientifico, convergono verso quel ponte chiamato digital humanities: solo tramite un sapere umanistico di scenario, che abbia chiari i propri fini, possiamo tentare di orientare una transizione che mezzi sempre più dinamici e potenti rendono quanto mai prossima. Il pericolo è che la transizione diventi un esodo potenzialmente infinito da tutto ciò che, fino a oggi, ha definito i contorni dell’esperienza umana.
Vista dal primo livello, ossia schiacciata tra una falsa antinomia (prendere tutto vs. rinunciare a tutto) e un’accelerazione tecnologica sempre più avanzata, la questione dell’AI rischia davvero, come preconizzava Arthur S. Clarke, di essere «indistinguishable from magic», indistinguibile dalla magia. Vista dal terzo livello, ossia da una nuova sintesi fra saperi, è invece possibile iniziare a discernere tra domande che per definizione chiedono di essere ben poste e risposte che, per l’intima natura dell’incedere scientifico, aprono a esiti incerti. Questi esiti – e qui entrano in gioco i saperi umanistici – chiedono oggi più che mai di essere governati, e dunque pensati, ex ante. Amministrarli ex post sarà infatti impossibile, per l’intima natura del processo tecnologico.
Le circa ottocento persone, in prevalenza giovani venuti da ogni parte d’Italia, che per oltre quattro ore sabato 12 maggio 2018 hanno seguito a Milano il convegno Intelligenza artificiale vs. intelligenza naturale, organizzato da Fabio Scardigli e Marcello Esposito dell’associazione culturale Communitas, sono partiti proprio da queste domande. E dai molti dubbi che inevitabilmente ci portiamo dentro: perderemo libertà, autonomia e lavoro? L’umano diverrà subalterno al postumano e alla macchina? Stiamo davvero toccando il punto di singolarità tecnologica, ovvero l’AI si appresta a superare, scalzandola, l’human intelligence?
I due main speaker dell’incontro, il cosmologo, matematico e fisico britannico sir Roger Penrose , già maestro di Stephen Hawking, e il filosofo Emanuele Severino, ottantasei anni il primo, ottantanove il secondo, come due giovanotti nel pieno delle loro energie non hanno fatto sconti a nessuno. Tanto meno alle asperità e alle insidie concettuali che lo stesso lemma “Intelligenza artificiale” porta con sé. Per lanciare una questione, che durante l’anno verrà ripresa e ridiscussa in workshop territoriali, Penrose e Severino hanno affrontato aspetti generali e particolari delle dinamiche di relazione e contrasto fra AI e human intelligence.
«La complessità delle questioni filosofiche che l’Intelligenza Artificiale solleva è tale», ha osservato in apertura del convegno Severino, «che questa complessità abbiamo il dovere di pensarla fino in fondo. E fino in fondo significa: fino alle estreme conseguenze possibili». Per Severino, tra i massimi filosofi teoretici dei nostri anni, le cui opere cominciano a essere conosciute anche fuori dai confini italiani (cfr. The Essence of Nihilism, Versus, 2016), il tema dell’AI è inevitabilmente da leggere all’interno della tendenza fondamentale del nostro tempo, che è una sorta di lunga delega del sapere fondamentale, quindi filosofico, alla tecnica.
Questa delega, ha spiegato Roger Penrose, critico con i progetti di AI fin da quando, sul finire degli anni Ottanta, pubblicò un volume destinato a provocare un impatto durevole sulla questione, La mente nuova dell’imperatore, è in primo luogo concettuale e ci porta dritti dal tema dell’intelligenza a quelli della coscienza e della consapevolezza. Penrose, che in anni recenti si è occupato con il ricercatore americano Stuart Hameroff di indagare i processi di consapevolezza e coscienza attraverso un’ipotesi chiamata Orchestrated objective reduction (Orch-OR), non ha mancato di spiegare la sua posizione relativamente alla questione dei microtuboli e del collasso delle funzioni d’onda, che produrrebbero decisioni non computazionali e, di conseguenza, non riproducibili da terminali e computer.
I limiti di un progetto complessivamente sostitutivo dell’intelligenza naturale o umana con un’intelligenza artificiale emergono non solo dal punto di vista logico.
Penrose ritiene che AI sia un termine improprio poiché «nessuno dei dispositivi di ciò che chiamiamo AI si autocomprende. La comprensione richiede infatti consapevolezza e la consapevolezza, a sua volta, si fonda sulla coscienza: le macchine procedono su base algoritmica, cosa che la coscienza non fa». Come proceda la coscienza e quale fisica ne determina i processi è ancora tutto da capire. Penrose ritiene che anche la meccanica quantistica, per come la comprendiamo oggi, non riesca a darci spiegazioni su quei processi.
Il problema, se vogliamo davvero parlare di AI, spiega Roger Penrose, è la coscienza, ovvero «la comprensione cosciente dei significati. Naturalmente molti, se non la maggior parte, tra coloro che si occupano di AI sono al contrario convinti che qualunque “comprensione” o “significato” possano essere simulati da un sistema computazionale puro». Alla base c’è forse un’errata comprensione di cosa sono la consapevolezza e l’intelligenza naturale o umana che solo se ridotte a una sommatoria di processi computazionali e algoritmi possono essere replicate. In questo senso, notava Emanuele Severino, che ha introdotto nel dibattito il tema cruciale dell’alienazione, «l’intelligenza che si vuole costruire è sempre l’intelligenza altrui, non la nostra».
In questo senso, ha spiegato Severino, la scienza rischia di essere «una fede ancora più potente della religione», plasmando ex nihilo l’umano.
«Ciò di cui dobbiamo preoccuparci non è che dispositivi di AI prendano il sopravvento», ha concluso Penrose, ma che «l’abuso umano della tecnologia informatica porti alla ribalta nuovi pericoli difficili da prevedere e da evitare». Ovvero che l’intelligenza naturale, sedotta come dalla magia di cui parlava Clarke, rinunci ai propri fini e si autoconfiguri in termini di subalternità rispetto ai dispositivi di una tecnoscienza incapace di autocomprendersi, ma capace – questo sì – di autorigenerarsi come sistema di mezzi senza fine.
GLI AUTORI
FABIO SCARDIGLI – dopo il dottorato di ricerca in Fisica, ottenuto studiando Relatività Generale presso l’Istituto di Fisica Teorica di Berna (ITP) con Petr Hajicek, è stato ricercatore post-doc presso il Centro di Astrofisica Relativistica (CENTRA) dell’Istituto Superior Tecnico di Lisbona, nel gruppo di Jose’ Lemos. Successivamente il dottor Scardigli ha lavorato per due anni come ricercatore presso lo Yukawa Institute for Theoretical Physics di Kyoto (Giappone), collaborando con con Misao Sasaki. E’ stato poi per quattro anni research fellow al Leung Center for Cosmology and Particle Astrophysics della National Taiwan University, Taipei, nel gruppo di Pisin Chen. Ha insegnato per due anni alla American University of Middle East, Kuwait City. Autore di oltre 40 articoli scientifici, i suoi interessi di ricerca si concentrano sulle teorie della gravita’, sui principi di incertezza generalizzati applicati alla cosmologia e ai buchi neri, sui fondamenti della meccanica quantistica. È docente a contratto presso il Dipartimento di Matematica del Politecnico di Milano.
MARCO DOTTI – Si è specializzato in temi di etica pubblica legati all’impatto delle nuove tecnologie sulla vita quotidiana. Docente al corso di laurea magistrale in Comunicazione professionale e dei media dell’Università di Pavia, tra i suoi libri: Il calcolo dei dadi. Azzardo e vita quotidiana (2013) per O Barra O Edizioni; Slot city, (Round Robin edizioni, 2013), Finis Europæ. Immigrazione, welfare, corpi intermedi digitali (Luca Sossella editore, Roma 2018). Con Marcello Esposito ha curato l’edizione italiana di Architetture dell’azzardo. Progettare il gioco, costruire la dipendenza di Natasha Dow Schüll (Luca Sossella editore, Roma 2015) e Ludocrazia. Un lessico dell’azzardo di massa (ObarraO, Milano 2016).