di Gianluca Riccio – L’intelligenza artificiale (AI) ha il potenziale di rivoluzionare il nostro mondo. Ed ovviamente questa promessa è accompagnata da un rischio significativo.
Ebbene, almeno nel mio orizzonte cognitivo vedo prevalere nettamente la parte pessimista del discorso. Per un motivo che ignoro, perfino gli stessi sviluppatori dell’AI tendono a rincorrersi a colpi di “moriremo tutti”, salvo poi fare lauti guadagni con le loro piattaforme.
A fare da contraltare, un manipolo di persone che ritiene salvifica la prospettiva di un boom dell’intelligenza artificiale.
In altri termini, sembra che l’umanità abbia solo due opzioni nel nostro approccio all’intelligenza artificiale:
- Temiamo le potenziali conseguenze negative dell’AI avanzata, e quindi cerchiamo di fermare il suo sviluppo;
- Apprezziamo i benefici dell’AI avanzata, e quindi ci impegniamo per ottenere questi benefici il più rapidamente possibile a dispetto dei rischi.
Nella mia Napoli la sintesi efficace sarebbe in un celebre detto: “o 1, o 90”. A cosa è dovuta questa totale assenza di equilibrio? Ci sono vie di mezzo?
Il cammino della responsabilità
La nostra visione ‘binaria”, sclerotizzata dai social e dai media che rilanciano le dichiarazioni sensazionalistiche o apocalittiche, trascura un percorso. Ed è un bel peccato, perché si tratta del percorso migliore, l’unico che può farci raggiungere i benefici sperati dell’AI avanzata: lo sviluppo responsabile.
Facciamo un’analogia: immaginate un viaggio verso una specie di valle dorata. Immaginate, poi, che davanti a questa valle ci sia una sorta di palude incerta, forse popolata da predatori affamati che si nascondono nell’ombra.
Abbiamo solo la scelta tra attraversarla e scappare? Tra paura (e fuga) e incoscienza (andare avanti senza precauzioni)? O esiste una terza via, quella di comprendere meglio la situazione e cercare con equilibrio il modo più sicuro per attraversare il fiume? Conoscete già la risposta. Anche i più spaventati di voi la conoscono. E per quelli concentrati solo sul “rischio esistenziale” e non fatto che ci sia anche una “opportunità esistenziale” consiglio questa riflessione del filosofo ed esperto di tecnologie emergenti, Max More.
La valutazione del rischio passa per l’equilibrio
Fuor di metafora, il viaggio è verso la “super abbondanza sostenibile” che potrebbe essere raggiunta con l’assistenza dell’AI avanzata, a condizione che agiamo con saggezza ed equilibrio.
E come si agisce con saggezza? Anzitutto ponendo le basi per una regolamentazione tradizionale. Secondo qualche filosofo ed esperto di tecnologie emergenti, mettere l’intelligenza artificiale in dei “binari” ne riduce la capacità di apprendimento e i benefici potenziali. Dipende.
Nel quadro del prossimo futuro in cui avremo sempre più intelligenze artificiali “locali” e specifiche (finanche assistenti del tutto personali), le AI potranno e dovranno essere sensibili all’entità dei potenziali fallimenti. Quando i fallimenti sono locali, allora c’è merito nel permettere che questi errori si verifichino. Ma quando c’è il rischio di un esito globale sarà necessaria una mentalità diversa, quella dello sviluppo responsabile.
In estrema sintesi: non è saggio fermare l’intelligenza artificiale, e non è saggio farla andare a ruota libera. Come detto, nessuna delle due strade attuali (fermarci o correre) ci porta a qualcosa di buono.
Non dobbiamo fermarci, non dobbiamo correre
Quello che serve urgentemente è un’indagine più profonda e riflessiva sui vari scenari in cui i fallimenti dell’AI possono avere conseguenze catastrofiche. Dobbiamo valutare quali settori corrono più rischi e quali danni potremmo subire, poi introdurre nuove “regole” (possibilmente non bypassabili come quelle di Asimov) per non debordare.
Solo così potremo aumentare significativamente la probabilità di trovare un modo sicuro per attraversare quella palude di incertezza che c’è tra noi e la Singolarità tecnologica.
L’AUTORE
Gianluca Riccio, classe 1975, è direttore creativo di un’agenzia pubblicitaria, copywriter, giornalista e divulgatore. Fa parte della World Future Society, associazione internazionale di futurologia e di H+, Network dei Transumanisti Italiani. Dal 2006 dirige Futuroprossimo.it, una risorsa italiana sul futuro.