di Gianluca Riccio – I timori per la crescita esponenziale dei sistemi di intelligenza artificiale stanno rapidamente giungendo a livelli parossistici, al punto che un esperto del settore ritiene che l’unico modo per fermarla sia bombardare i data center. Questa è la proposta choc di Eliezer Yudkowsky, ricercatore nel campo del machine learning, in un editoriale per il Time magazine.
Chi è Eliezer Yudkowsky?
Yudkowsky ha passato oltre vent’anni a studiare l’Intelligenza Artificiale Generale (AGI) e mettere in guardia sulle possibili conseguenze disastrose. Per questo va ben oltre l’allarme lanciato da personaggi come Elon Musk, Steve Wozniak e Andrew Yang nella lettera aperta del Future of Life Institute, che chiede una pausa di sei mesi nello sviluppo dell’AI. Yudkowsky sostiene che non sia sufficiente.
L’esperto afferma che l’unico modo per evitare una catastrofe è bloccare l’AI in maniera radicale. La sua idea? “Spegnere tutti i grandi cluster di GPU (le fattorie di computer in cui vengono sviluppate le intelligenze artificiali più potenti) e imporre un limite alla potenza di calcolo usabile per l’addestramento delle AI, riducendola nel tempo. Nessuna eccezione, nemmeno per governi ed enti militari”.
E se qualcuno dovesse infrangere queste regole? Yudkowsky non ha dubbi: “Siate pronti a distruggere un data center ribelle con un attacco aereo”.
Fondati timori o psicosi?
Il tono delle preoccupazioni di Yudkowsky mi perplime: per quanto sia concorde con il fatto che servano etica e attenzione nell’indirizzo di queste tecnologie, le trovo isteriche.
L’esperto Yudkowsky dice di temere che sua figlia Nina non sopravviva fino all’età adulta se continueranno a svilupparsi AI sempre più intelligenti.
Invita quindi tutti coloro che condividono queste preoccupazioni ad adottare una posizione ferma, perché, in caso contrario, anche i loro figli potrebbero trovarsi in pericolo. “Il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, è che letteralmente tutti sulla Terra moriranno”.
Non ho difficoltà a definirlo un catastrofista. Certo, se qualcuno che ha veramente dedicato la propria vita allo studio dei pericoli del futuro distopico dell’AI dice che ci stiamo avvicinando alla cosa di cui aveva messo in guardia, la sua opinione potrebbe valere la pena di essere ascoltata.
Non dobbiamo assecondare il rigetto, però. Dobbiamo assecondare il progresso: come detto, etica e attenzione. Nessuna paura e soprattutto nessun oscurantismo.
L’AUTORE
Gianluca Riccio, classe 1975, è direttore creativo di un’agenzia pubblicitaria, copywriter, giornalista e divulgatore. Fa parte della World Future Society, associazione internazionale di futurologia e di H+, Network dei Transumanisti Italiani. Dal 2006 dirige Futuroprossimo.it, una risorsa italiana sul futuro.