Come l’intelligenza artificiale potrebbe minacciare la democrazia e dividere il mondo, avverte lo storico e autore in un estratto esclusivo dal suo nuovo libro (in uscita a settembre) pubblicato sul The Guardian:
Nel corso della storia, molte tradizioni hanno creduto che un difetto fatale nella natura umana ci spinga a perseguire poteri che non sappiamo come gestire. Il mito greco di Fetonte racconta di un ragazzo che scopre di essere figlio di Elio, il dio del sole. Desiderando dimostrare la sua origine divina, Fetonte esige il privilegio di guidare il carro del sole. Elio avverte Fetonte che nessun essere umano può controllare i cavalli celestiali che tirano il carro solare. Ma Fetonte insiste, finché il dio del sole non cede. Dopo essere salito fiero nel cielo, Fetonte perde effettivamente il controllo del carro. Il sole devia dalla rotta, bruciando tutta la vegetazione, uccidendo numerosi esseri e minacciando di bruciare la Terra stessa. Zeus interviene e colpisce Fetonte con un fulmine. L’uomo presuntuoso cade dal cielo come una stella cadente, lui stesso in fiamme. Gli dei riaffermano il controllo del cielo e salvano il mondo.
Duemila anni dopo, quando la Rivoluzione industriale muoveva i primi passi e le macchine cominciavano a sostituire gli umani in numerosi compiti, Johann Wolfgang von Goethe pubblicò un racconto ammonitore simile intitolato L’apprendista stregone. La poesia di Goethe (in seguito resa popolare come un’animazione di Walt Disney con protagonista Topolino) racconta di un vecchio stregone che lascia un giovane apprendista a capo della sua officina e gli affida alcuni compiti da svolgere mentre è via, come andare a prendere l’acqua dal fiume. L’apprendista decide di semplificarsi le cose e, usando uno degli incantesimi dello stregone, incanta una scopa perché gli vada a prendere l’acqua. Ma l’apprendista non sa come fermare la scopa, che inesorabilmente prende sempre più acqua, minacciando di allagare l’officina. Nel panico, l’apprendista taglia in due la scopa incantata con un’ascia, solo per vedere ogni metà trasformarsi in un’altra scopa. Ora due scope incantate stanno inondando d’acqua il laboratorio. Quando il vecchio stregone ritorna, l’apprendista implora aiuto: “Gli spiriti che ho evocato, ora non posso più liberarmene”. Lo stregone rompe immediatamente l’incantesimo e ferma l’inondazione. La lezione per l’apprendista – e per l’umanità – è chiara: non evocare mai poteri che non puoi controllare.
Cosa ci dicono le favole ammonitrici dell’apprendista e di Fetonte nel XXI secolo? Noi umani ci siamo ovviamente rifiutati di dare ascolto ai loro avvertimenti. Abbiamo già squilibrato il clima della Terra e abbiamo evocato miliardi di scope incantate, droni, chatbot e altri spiriti algoritmici che potrebbero sfuggire al nostro controllo e scatenare un’ondata di conseguenze. Cosa dovremmo fare, allora? Le favole non offrono risposte, se non quella di aspettare che qualche dio o stregone ci salvi.
Il mito di Fetonte e la poesia di Goethe non forniscono consigli utili perché fraintendono il modo in cui gli esseri umani acquisiscono potere. In entrambe le favole, un singolo essere umano acquisisce un potere enorme, ma viene poi corrotto da arroganza e avidità. La conclusione è che la nostra psicologia individuale imperfetta ci spinge ad abusare del potere. Ciò che questa analisi grossolana non coglie è che il potere umano non è mai il risultato di un’iniziativa individuale. Il potere deriva sempre dalla cooperazione tra un gran numero di esseri umani. Di conseguenza, non è la nostra psicologia individuale a spingerci ad abusare del potere. Dopotutto, oltre ad avidità, arroganza e crudeltà, gli esseri umani sono anche capaci di amore, compassione, umiltà e gioia. È vero, tra i peggiori membri della nostra specie, avidità e crudeltà regnano sovrane e portano i cattivi attori ad abusare del potere. Ma perché le società umane sceglierebbero di affidare il potere ai loro peggiori membri? La maggior parte dei tedeschi nel 1933, ad esempio, non erano psicopatici. Allora perché hanno votato per Hitler?
La nostra tendenza a evocare poteri che non possiamo controllare non deriva dalla psicologia individuale, ma dal modo unico in cui la nostra specie coopera in grandi numeri. L’umanità acquisisce un potere enorme costruendo grandi reti di cooperazione, ma il modo in cui sono costruite le nostre reti ci predispone a usare il potere in modo poco saggio. Perché la maggior parte delle nostre reti è stata costruita e mantenuta diffondendo finzioni, fantasie e illusioni di massa, che vanno dalle scope incantate ai sistemi finanziari. Il nostro problema, quindi, è un problema di rete. In particolare, è un problema di informazione. Perché l’informazione è la colla che tiene insieme le reti e quando le persone vengono nutrite con informazioni sbagliate è probabile che prendano decisioni sbagliate, non importa quanto siano sagge e gentili personalmente.
Nelle ultime generazioni l’umanità ha sperimentato il più grande incremento di sempre sia nella quantità che nella velocità della nostra produzione di informazioni. Ogni smartphone contiene più informazioni dell’antica Biblioteca di Alessandria e consente al suo proprietario di connettersi istantaneamente a miliardi di altre persone in tutto il mondo. Eppure, con tutte queste informazioni che circolano a velocità mozzafiato, l’umanità è più vicina che mai all’annientamento di se stessa.
Nonostante – o forse proprio a causa – della nostra mole di dati, continuiamo a vomitare gas serra nell’atmosfera, a inquinare fiumi e oceani, a tagliare foreste, a distruggere interi habitat, a portare all’estinzione innumerevoli specie e a mettere a repentaglio le fondamenta ecologiche della nostra stessa specie. Stiamo anche producendo armi di distruzione di massa sempre più potenti, dalle bombe termonucleari ai virus apocalittici. I nostri leader non sono privi di informazioni su questi pericoli, ma invece di collaborare per trovare soluzioni, si stanno avvicinando sempre di più a una guerra globale.
Avere ancora più informazioni renderebbe le cose migliori o peggiori? Lo scopriremo presto. Numerose aziende e governi sono in gara per sviluppare la tecnologia informatica più potente della storia: l’intelligenza artificiale. Alcuni importanti imprenditori, come l’investitore americano Marc Andreessen, credono che l’intelligenza artificiale risolverà finalmente tutti i problemi dell’umanità. Il 6 giugno 2023, Andreessen ha pubblicato un saggio intitolato “Perché l’intelligenza artificiale salverà il mondo”, costellato di affermazioni audaci come: “Sono qui per portare la buona notizia: l’intelligenza artificiale non distruggerà il mondo e, anzi, potrebbe salvarlo”. Ha concluso: “Lo sviluppo e la proliferazione dell’intelligenza artificiale, lungi dall’essere un rischio di cui dovremmo aver paura, sono un obbligo morale che abbiamo verso noi stessi, verso i nostri figli e verso il nostro futuro”.
Altri sono più scettici. Non solo filosofi e scienziati sociali, ma anche molti importanti esperti di intelligenza artificiale e imprenditori come Yoshua Bengio, Geoffrey Hinton, Sam Altman, Elon Musk e Mustafa Suleyman hanno avvertito che l’intelligenza artificiale potrebbe distruggere la nostra civiltà. In un sondaggio del 2023 su 2.778 ricercatori di intelligenza artificiale, più di un terzo ha dato almeno il 10% di possibilità che l’intelligenza artificiale avanzata porti a risultati tanto gravi quanto l’estinzione umana. L’anno scorso, quasi 30 governi, tra cui quelli di Cina, Stati Uniti e Regno Unito, hanno firmato la dichiarazione di Bletchley sull’intelligenza artificiale , che ha riconosciuto che “esiste il potenziale per danni gravi, persino catastrofici, deliberati o involontari, derivanti dalle capacità più significative di questi modelli di intelligenza artificiale”. Utilizzando tali termini apocalittici, esperti e governi non hanno alcuna intenzione di evocare un’immagine hollywoodiana di robot ribelli che corrono per le strade e sparano alla gente. Uno scenario del genere è improbabile e distrae semplicemente le persone dai veri pericoli.
L’intelligenza artificiale è una minaccia senza precedenti per l’umanità perché è la prima tecnologia nella storia in grado di prendere decisioni e creare nuove idee da sola. Tutte le precedenti invenzioni umane hanno dato potere agli esseri umani, perché non importa quanto potente fosse il nuovo strumento, le decisioni sul suo utilizzo rimanevano nelle nostre mani. Le bombe nucleari non decidono da sole chi uccidere, né possono migliorarsi o inventare bombe ancora più potenti. Al contrario, i droni autonomi possono decidere da soli chi uccidere e le IA possono creare nuovi progetti di bombe, strategie militari senza precedenti e IA migliori. L’IA non è uno strumento, è un agente. La minaccia più grande dell’IA è che stiamo evocando sulla Terra innumerevoli nuovi agenti potenti che sono potenzialmente più intelligenti e fantasiosi di noi e che non comprendiamo o controlliamo appieno.
Mustafa Suleyman è un esperto mondiale in materia di IA. È il co-fondatore ed ex capo di DeepMind, una delle più importanti aziende di IA al mondo, responsabile dello sviluppo del programma AlphaGo, tra gli altri risultati. AlphaGo è stato progettato per giocare a Go, un gioco da tavolo strategico in cui due giocatori cercano di sconfiggersi a vicenda circondando e catturando il territorio. Inventato nell’antica Cina, il gioco è molto più complesso degli scacchi. Di conseguenza, anche dopo che i computer hanno sconfitto i campioni mondiali di scacchi umani, gli esperti credevano ancora che i computer non avrebbero mai superato l’umanità a Go.
Ecco perché sia i professionisti di Go che gli esperti di computer sono rimasti sbalorditi nel marzo 2016 quando AlphaGo ha sconfitto il campione sudcoreano di Go Lee Sedol. Nel suo libro del 2023 “The Coming Wave”, Suleyman descrive uno dei momenti più importanti della loro partita, un momento che ha ridefinito l’intelligenza artificiale ed è riconosciuto in molti circoli accademici e governativi come un punto di svolta cruciale nella storia. È accaduto durante la seconda partita della partita, il 10 marzo 2016.
“Poi… è arrivata la mossa numero 37”, scrive Suleyman. “Non aveva senso. AlphaGo aveva apparentemente rovinato tutto, seguendo ciecamente una strategia apparentemente perdente che nessun giocatore professionista avrebbe mai perseguito. I commentatori della partita in diretta, entrambi professionisti di altissimo livello, hanno detto che era una “mossa molto strana” e hanno pensato che fosse “un errore”. Era così insolita che Sedol ha impiegato 15 minuti per rispondere e si è persino alzato dalla scacchiera per fare una passeggiata. Mentre guardavamo dalla nostra sala di controllo, la tensione era irreale. Eppure, mentre si avvicinava la fine della partita, quella mossa “sbagliata” si è rivelata fondamentale. AlphaGo ha vinto di nuovo. La strategia di Go è stata riscritta davanti ai nostri occhi. La nostra IA aveva scoperto idee che non erano venute in mente ai giocatori più brillanti da migliaia di anni”.
Move 37 è un emblema della rivoluzione dell’IA per due motivi. Innanzitutto, ha dimostrato la natura aliena dell’IA. Nell’Asia orientale, Go è considerato molto più di un gioco: è una preziosa tradizione culturale. Per oltre 2.500 anni, decine di milioni di persone hanno giocato a Go e intere scuole di pensiero si sono sviluppate attorno al gioco, sposando diverse strategie e filosofie. Tuttavia, durante tutti quei millenni, le menti umane hanno esplorato solo alcune aree nel panorama di Go. Altre aree sono rimaste intatte, perché le menti umane semplicemente non hanno pensato di avventurarsi lì. L’IA, essendo libera dai limiti delle menti umane, ha scoperto ed esplorato queste aree precedentemente nascoste.
In secondo luogo, la mossa 37 ha dimostrato l’insondabilità dell’IA. Anche dopo che AlphaGo l’ha giocata per ottenere la vittoria, Suleyman e il suo team non sono riusciti a spiegare come AlphaGo abbia deciso di giocarla. Anche se un tribunale avesse ordinato a DeepMind di fornire a Sedol una spiegazione, nessuno avrebbe potuto soddisfare quell’ordine. Suleyman scrive: “Nell’IA, le reti neurali che si stanno muovendo verso l’autonomia sono, al momento, non spiegabili. Non puoi guidare qualcuno attraverso il processo decisionale per spiegare esattamente perché un algoritmo ha prodotto una previsione specifica. Gli ingegneri non possono guardare sotto il cofano e spiegare facilmente nei dettagli granulari cosa ha causato l’accadimento di qualcosa. GPT‑4, AlphaGo e il resto sono scatole nere, i loro output e le loro decisioni si basano su catene opache e impossibilmente intricate di segnali indecifrabili”.
L’ascesa di un’intelligenza aliena insondabile rappresenta una minaccia per tutti gli esseri umani e in particolare per la democrazia. Se sempre più decisioni sulla vita delle persone vengono prese in una scatola nera, in modo che gli elettori non possano comprenderle e contestarle, la democrazia cessa di funzionare. In particolare, cosa succede quando decisioni cruciali non solo sulla vita individuale ma anche su questioni collettive come il tasso di interesse della Federal Reserve vengono prese da algoritmi insondabili? Gli elettori umani possono continuare a scegliere un presidente umano, ma non sarebbe solo una cerimonia vuota? Ancora oggi, solo una piccola frazione dell’umanità comprende veramente il sistema finanziario. Un sondaggio del 2014 condotto tra i parlamentari britannici, incaricati di regolamentare uno dei più importanti centri finanziari del mondo, ha rilevato che solo il 12% ha compreso correttamente che il nuovo denaro viene creato quando le banche erogano prestiti. Questo fatto è tra i principi più basilari del moderno sistema finanziario. Come ha indicato la crisi finanziaria del 2007-8, alcuni complessi dispositivi e principi finanziari erano comprensibili solo a pochi maghi della finanza. Cosa succederà alla democrazia quando l’intelligenza artificiale creerà dispositivi finanziari ancora più complessi e quando il numero di esseri umani che comprendono il sistema finanziario scenderà a zero?
Traducendo la favola ammonitrice di Goethe nel linguaggio della finanza moderna, immagina il seguente scenario: un apprendista di Wall Street, stufo della fatica del laboratorio finanziario, crea un’IA chiamata Broomstick, le fornisce un milione di dollari di capitale iniziale e le ordina di fare più soldi. Per l’IA, la finanza è il parco giochi ideale, perché è un regno puramente informativo e matematico. Le IA trovano ancora difficile guidare autonomamente un’auto, perché ciò richiede di muoversi e interagire nel caotico mondo fisico, dove il “successo” è difficile da definire. Al contrario, per effettuare transazioni finanziarie l’IA deve gestire solo i dati e può facilmente misurare il suo successo matematicamente in dollari, euro o sterline. Più dollari: missione compiuta.
Alla ricerca di più dollari, Broomstick non solo escogita nuove strategie di investimento, ma escogita anche dispositivi finanziari completamente nuovi a cui nessun essere umano ha mai pensato. Per migliaia di anni, le menti umane hanno esplorato solo alcune aree nel panorama della finanza. Hanno inventato denaro, assegni, obbligazioni, azioni, ETF, CDO e altri pezzi di stregoneria finanziaria. Ma molte aree finanziarie sono rimaste intatte, perché le menti umane semplicemente non hanno pensato di avventurarsi lì. Broomstick, essendo libero dai limiti delle menti umane, scopre ed esplora queste aree precedentemente nascoste, facendo mosse finanziarie che sono l’equivalente della mossa 37 di AlphaGo.
Per un paio d’anni, mentre Broomstick conduce l’umanità in territorio finanziario vergine, tutto sembra meraviglioso. I mercati sono alle stelle, il denaro sta arrivando senza sforzo e tutti sono felici. Poi arriva un crollo più grande persino del 1929 o del 2008. Ma nessun essere umano, presidente, banchiere o cittadino, sa cosa l’ha causato e cosa si potrebbe fare al riguardo. Poiché né dio né stregone arrivano a salvare il sistema finanziario, i governi disperati chiedono aiuto all’unica entità in grado di capire cosa sta succedendo: Broomstick. L’IA fa diverse raccomandazioni politiche, molto più audaci dell’allentamento quantitativo e anche molto più opache. Broomstick promette che queste politiche salveranno la situazione, ma i politici umani, incapaci di comprendere la logica dietro le raccomandazioni di Broomstick, temono che possano completamente smantellare il tessuto finanziario e persino sociale del mondo. Dovrebbero dare ascolto all’IA?
I computer non sono ancora abbastanza potenti da sfuggire completamente al nostro controllo o distruggere la civiltà umana da soli. Finché l’umanità resta unita, possiamo costruire istituzioni che regoleranno l’IA, sia nel campo della finanza che in quello della guerra. Sfortunatamente, l’umanità non è mai stata unita. Siamo sempre stati afflitti da cattivi attori, così come da disaccordi tra buoni attori. L’ascesa dell’IA rappresenta un pericolo esistenziale per l’umanità, non a causa della malevolenza dei computer, ma a causa delle nostre stesse mancanze.
Quindi, un dittatore paranoico potrebbe dare un potere illimitato a un’IA fallibile, incluso persino il potere di lanciare attacchi nucleari. Se l’IA commette un errore o inizia a perseguire un obiettivo inaspettato, il risultato potrebbe essere catastrofico, e non solo per quel paese. Allo stesso modo, i terroristi potrebbero usare l’IA per istigare una pandemia globale. I terroristi stessi potrebbero avere poca conoscenza dell’epidemiologia, ma l’IA potrebbe sintetizzare per loro un nuovo agente patogeno, ordinarlo da laboratori commerciali o stamparlo in stampanti 3D biologiche e ideare la strategia migliore per diffonderlo in tutto il mondo, tramite aeroporti o catene di approvvigionamento alimentare. Cosa succederebbe se l’IA sintetizzasse un virus mortale come l’Ebola, contagioso come il Covid-19 e lento come l’HIV? Quando le prime vittime inizieranno a morire e il mondo verrà allertato del pericolo, la maggior parte delle persone sulla Terra potrebbe essere già stata infettata.
La civiltà umana potrebbe anche essere devastata da armi di distruzione di massa sociale, come storie che minano i nostri legami sociali. Un’IA sviluppata in un paese potrebbe essere utilizzata per scatenare un diluvio di fake news, denaro falso e falsi esseri umani in modo che le persone in numerosi altri paesi perdano la capacità di fidarsi di qualsiasi cosa o di chiunque.
Molte società, sia democrazie che dittature, potrebbero agire in modo responsabile per regolamentare tali usi dell’IA, reprimere i cattivi attori e frenare le ambizioni pericolose dei loro governanti e fanatici. Ma se anche una manciata di società non ci riuscisse, questo potrebbe essere sufficiente a mettere in pericolo l’intera umanità. Il cambiamento climatico può devastare persino i paesi che adottano eccellenti normative ambientali, perché è un problema globale piuttosto che nazionale. Anche l’IA è un problema globale. Di conseguenza, per comprendere la nuova politica informatica, non è sufficiente esaminare come le società distinte potrebbero reagire all’IA. Dobbiamo anche considerare come l’IA potrebbe cambiare le relazioni tra le società a livello globale.
Nel XVI secolo, quando i conquistadores spagnoli, portoghesi e olandesi costruirono i primi imperi globali della storia, arrivarono con velieri, cavalli e polvere da sparo. Quando inglesi, russi e giapponesi fecero le loro offerte per l’egemonia nel XIX e XX secolo, si affidarono a piroscafi, locomotive e mitragliatrici. Nel XXI secolo, per dominare una colonia, non è più necessario inviare le cannoniere. È necessario estrarre i dati. Alcune aziende o governi che raccolgono i dati del mondo potrebbero trasformare il resto del globo in colonie di dati, territori che controllano non con la forza militare palese, ma con le informazioni.
Immagina una situazione, diciamo tra 20 anni, in cui qualcuno a Pechino o a San Francisco possiede l’intera storia personale di ogni politico, giornalista, colonnello e CEO del tuo Paese: ogni testo che hanno mai inviato, ogni ricerca web che hanno mai fatto, ogni malattia che hanno sofferto, ogni incontro sessuale che hanno avuto, ogni battuta che hanno raccontato, ogni tangente che hanno preso. Vivresti ancora in un Paese indipendente o ora vivresti in una colonia di dati? Cosa succede quando il tuo Paese si ritrova completamente dipendente da infrastrutture digitali e sistemi basati sull’intelligenza artificiale su cui non ha alcun controllo effettivo?
Nel regno economico, gli imperi precedenti si basavano su risorse materiali come terra, cotone e petrolio. Ciò poneva un limite alla capacità dell’impero di concentrare sia la ricchezza economica che il potere politico in un unico luogo. La fisica e la geologia non consentono che tutta la terra, il cotone o il petrolio del mondo vengano spostati in un unico paese. È diverso con i nuovi imperi dell’informazione. I dati possono muoversi alla velocità della luce e gli algoritmi non occupano molto spazio. Di conseguenza, il potere algoritmico del mondo può essere concentrato in un unico hub. Gli ingegneri di un singolo paese potrebbero scrivere il codice e controllare le chiavi per tutti gli algoritmi cruciali che gestiscono il mondo intero.
L’intelligenza artificiale e l’automazione rappresentano quindi una sfida particolare per i paesi in via di sviluppo più poveri. In un’economia globale guidata dall’intelligenza artificiale, i leader digitali rivendicano la maggior parte dei guadagni e potrebbero usare la loro ricchezza per riqualificare la propria forza lavoro e trarne ancora più profitto. Nel frattempo, il valore dei lavoratori non qualificati nei paesi lasciati indietro diminuirà, facendoli arretrare ulteriormente. Il risultato potrebbe essere un sacco di nuovi posti di lavoro e un’immensa ricchezza a San Francisco e Shanghai, mentre molte altre parti del mondo affrontano la rovina economica. Secondo la società di contabilità globale PricewaterhouseCoopers , si prevede che l’intelligenza artificiale aggiungerà 15,7 trilioni di dollari (12,3 trilioni di sterline) all’economia globale entro il 2030. Ma se le tendenze attuali continuano, si prevede che Cina e Nord America, le due principali superpotenze dell’intelligenza artificiale, porteranno a casa insieme il 70% di quel denaro.
Durante la guerra fredda, la cortina di ferro era in molti posti letteralmente fatta di metallo: il filo spinato separava un paese dall’altro. Ora il mondo è sempre più diviso dalla cortina di silicio. Il codice sul tuo smartphone determina da quale parte della cortina di silicio vivi, quali algoritmi gestiscono la tua vita, chi controlla la tua attenzione e dove scorrono i tuoi dati.
Sta diventando difficile accedere alle informazioni attraverso la cortina di silicio, ad esempio tra Cina e Stati Uniti, o tra Russia e UE. Inoltre, le due parti sono sempre più gestite su reti digitali diverse, utilizzando codici informatici diversi. In Cina, non puoi usare Google o Facebook e non puoi accedere a Wikipedia. Negli Stati Uniti, poche persone usano le principali app cinesi come WeChat. Ancora più importante, le due sfere digitali non sono immagini speculari l’una dell’altra. Baidu non è il Google cinese. Alibaba non è l’Amazon cinese. Hanno obiettivi diversi, architetture digitali diverse e impatti diversi sulla vita delle persone. Queste differenze influenzano gran parte del mondo, poiché la maggior parte dei paesi si affida a software cinesi e americani piuttosto che alla tecnologia locale.
Gli Stati Uniti fanno anche pressione sui propri alleati e clienti affinché evitino l’hardware cinese, come l’infrastruttura 5G di Huawei. L’amministrazione Trump ha bloccato un tentativo della società singaporiana Broadcom di acquistare il principale produttore americano di chip per computer, Qualcomm. Temevano che gli stranieri potessero inserire delle backdoor nei chip o avrebbero impedito al governo degli Stati Uniti di inserirvi le proprie backdoor. Sia l’amministrazione Trump che quella Biden hanno imposto rigidi limiti al commercio di chip di elaborazione ad alte prestazioni necessari per lo sviluppo dell’intelligenza artificiale. Alle aziende statunitensi è ora vietato esportare tali chip in Cina. Mentre nel breve termine ciò ostacola la Cina nella corsa all’intelligenza artificiale, nel lungo termine spinge la Cina a sviluppare una sfera digitale completamente separata che sarà distinta dalla sfera digitale americana anche nei suoi edifici più piccoli.
Le due sfere digitali potrebbero quindi allontanarsi sempre di più. Per secoli, le nuove tecnologie dell’informazione hanno alimentato il processo di globalizzazione e hanno portato le persone di tutto il mondo a un contatto più stretto. Paradossalmente, oggi la tecnologia dell’informazione è così potente che può potenzialmente dividere l’umanità racchiudendo persone diverse in bozzoli informativi separati, ponendo fine all’idea di un’unica realtà umana condivisa. Per decenni, la metafora principale del mondo è stata il web. La metafora principale dei decenni a venire potrebbe essere il bozzolo.
Sebbene Cina e Stati Uniti siano attualmente i favoriti nella corsa all’intelligenza artificiale, non sono soli. Altri paesi o blocchi, come UE, India, Brasile e Russia, potrebbero provare a creare i propri bozzoli digitali, ognuno influenzato da diverse tradizioni politiche, culturali e religiose. Invece di essere diviso tra due imperi globali, il mondo potrebbe essere diviso tra una dozzina di imperi.
Più i nuovi imperi competono tra loro, maggiore è il pericolo di un conflitto armato. La guerra fredda tra USA e URSS non è mai degenerata in uno scontro militare diretto, in gran parte grazie alla dottrina della distruzione reciproca assicurata. Ma il pericolo di escalation nell’era dell’IA è maggiore, perché la guerra informatica è intrinsecamente diversa dalla guerra nucleare.
Le armi cibernetiche possono far crollare la rete elettrica di un paese, ma possono anche essere utilizzate per distruggere un centro di ricerca segreto, bloccare un sensore nemico, fomentare uno scandalo politico, manipolare le elezioni o hackerare un singolo smartphone. E possono fare tutto questo furtivamente. Non annunciano la loro presenza con una nube a forma di fungo e una tempesta di fuoco, né lasciano una scia visibile dalla rampa di lancio al bersaglio. Di conseguenza, a volte è difficile sapere se un attacco si è verificato o chi lo ha lanciato. La tentazione di iniziare una guerra cibernetica limitata è quindi grande, così come la tentazione di intensificarla.
Una seconda differenza cruciale riguarda la prevedibilità. La guerra fredda era come una partita a scacchi iper-razionale, e la certezza della distruzione in caso di conflitto nucleare era così grande che il desiderio di iniziare una guerra era corrispondentemente piccolo. La guerra informatica manca di questa certezza. Nessuno sa con certezza dove ogni parte abbia piazzato le sue bombe logiche, i suoi cavalli di Troia e i suoi malware. Nessuno può essere certo se le proprie armi funzionerebbero davvero quando richieste. I missili cinesi avrebbero sparato quando l’ordine fosse stato dato, o forse gli americani li avrebbero hackerati o avrebbero hackerato la catena di comando? Le portaerei americane avrebbero funzionato come previsto, o forse si sarebbero spente misteriosamente o avrebbero navigato in tondo?
Tale incertezza mina la dottrina della distruzione reciproca assicurata. Una parte potrebbe convincersi, a ragione o a torto, di poter lanciare un primo attacco di successo ed evitare una rappresaglia massiccia. Ancora peggio, se una parte pensa di avere una tale opportunità, la tentazione di lanciare un primo attacco potrebbe diventare irresistibile, perché non si sa mai per quanto tempo la finestra di opportunità rimarrà aperta. La teoria dei giochi postula che la situazione più pericolosa in una corsa agli armamenti è quando una parte ritiene di avere un vantaggio ma che questo vantaggio sta svanendo.
Anche se l’umanità evitasse lo scenario peggiore di una guerra globale, l’ascesa di nuovi imperi digitali potrebbe comunque mettere a repentaglio la libertà e la prosperità di miliardi di persone. Gli imperi industriali del XIX e XX secolo sfruttavano e reprimevano le loro colonie, e sarebbe sconsiderato aspettarsi che i nuovi imperi digitali si comportino molto meglio. Inoltre, se il mondo è diviso in imperi rivali, è improbabile che l’umanità cooperi per superare la crisi ecologica o per regolamentare l’intelligenza artificiale e altre tecnologie dirompenti come la bioingegneria.
La divisione del mondo in imperi digitali rivali si sposa con la visione politica di molti leader che credono che il mondo sia una giungla, che la relativa pace degli ultimi decenni sia stata un’illusione e che l’unica vera scelta sia se interpretare il ruolo del predatore o della preda.
Data una tale scelta, la maggior parte dei leader preferirebbe passare alla storia come predatori e aggiungere i propri nomi alla tetra lista di conquistatori che gli sfortunati studenti sono condannati a imparare a memoria per i loro esami di storia. A questi leader dovrebbe essere ricordato, tuttavia, che c’è un nuovo predatore alfa nella giungla. Se l’umanità non trova un modo per cooperare e proteggere i nostri interessi comuni, saremo tutti facili prede dell’IA.