Si parla moltissimo ormai da tempo di Intelligenza Artificiale (AI), grazie soprattutto al dibattito sulle auto a guida autonoma e alle chatbots (nonché alla perdita di moltissimi lavori che questa tecnologia già sta portando con sè). Ci sono tuttavia numerose applicazioni di tecnologie basate sull’AI in contesti particolarmente sensibili pressoché ancora sconosciute al grande pubblico. Una di queste riguarda l’uso di armi letali progettate per identificare e uccidere autonomamente bersagli umani. Per capire meglio i rischi legati a tali scenari, abbiamo intervistato Matteo Di Michele, esperto di tecnologie emergenti che ha recentemente pubblicato un libro proprio sui rischi e le opportunità dell’AI, chiamato appunto “Intelligenza Artificiale”, Etica, rischi e opportunità di una tecnologia rivoluzionaria, da questo mese in libreria anche in Italia (Diarkos Editore).
Come viene utilizzata oggi l’AI nel settore delle armi?
L’AI è utilizzata da anni in tanti tipi di mezzi militari tradizionali come aerei, sottomarini, e carri armati. Quel che è nuovo è che grazie all’AI le armi hanno raggiunto livelli tali di autonomia da essere in grado di identificare e uccidere un bersaglio senza apporto umano. Alcune di queste armi sono solo semiautonome, in quanto hanno ancora una qualche forma di supervisione, con una comunicazione costante con gli umani che convalidano o approvano le azioni, e con la capacità quindi di fermare in ogni momento una certa operazione militare. Altre invece sono completamente autonome, in quanto non c’è nessun umano a controllare in tempo reale: le macchine sono programmate per analizzare in modo indipendente il loro ambiente e valutare come raggiungere al meglio gli obiettivi che vengono loro dati senza interazioni umane. Una volta che sono dispiegati in vaste quantità̀ di spazio aereo o terrestre o marittimo, non c’è più̀ alcuna comunicazione con gli esseri umani. Ci sono già per esempio droni sottomarini autonomi a propulsione nucleare in grado di trasportare testate atomiche da una parte all’altra dell’oceano. Una volta lanciati vanno avanti da soli fino al compimento della missione.
Quali sono le ragioni a sostegno delle armi autonome e quali i maggiori rischi?
Tra i vantaggi indicati più̀ frequentemente c’è l’idea che queste siano più̀ precise dei soldati e che quindi ridurrebbero i danni collaterali e il numero di persone uccise per errore. Alcuni credono inoltre che possano aiutare a diminuire il numero di uomini inviati sul campo e quindi rendere la guerra meno pericolosa, almeno per i militari alleati. Inoltre, considerando che i peggiori crimini di guerra sono commessi da soldati con alti livelli di stress fisico e psicologico, avendo meno umani sul terreno ci sarebbero presumibilmente meno crimini di guerra, poiché́ l’AI non si arrabbia e non si stanca mai.
I rischi sono numerosissimi sia tecnici che di natura etica. Da un punto di vista tecnico, per esempio, c’è un alto rischio che il sistema di comunicazione con le armi autonome venga manipolato da hacker e che la macchina colpisca un bersaglio diverso da quello voluto. Un altro rischio deriva dal fatto che il riconoscimento delle immagini non è ancora abbastanza affidabile da distinguere civili e combattenti o per valutare l’ampio spettro della diversità̀ all’interno di determinati gruppi come il colore della pelle, il genere e così via, con il rischio di colpire persone innocenti. Una donna che indossa un abito lungo, ad esempio, potrebbe essere facilmente scambiata per un uomo che indossa abiti religiosi tradizionali o viceversa.
Da un punto di vista etico, molti hanno sollevato questioni morali sul dispiegamento di macchine in grado di uccidere autonomamente senza la supervisione costante di umani, in base alla certezza che solo agenti morali come gli umani possono comprendere appieno il significato di sopprimere una vita. In un contesto in cui ad uccidere sono le macchine temo poi che si finirà per avere una maggiore propensione alla guerra in quanto sarà molto più̀ facile ottenere il sostegno del pubblico se ad essere inviati sul fronte sono macchine piuttosto che soldati. I governi dei paesi più̀ avanzati tecnologicamente non dovrebbero più̀ preoccuparsi di gestire la reazione dei cittadini di fronte alle bare dei soldati. Le opposizioni per andare in guerra sarebbero dunque radicalmente ridotte, rendendo più̀ facile scatenare nuovi conflitti.
Cosa dobbiamo aspettarci di vedere nei prossimi anni?
Una tecnologia molto discussa è quella dell’uso di droni grandi quanto un insetto lanciati a sciame senza il diretto controllo umano, come quelli descritti nel celebre cortometraggio Slaughterbots. Grazie a una tecnologia molto simile a quella che abbiamo nei nostri cellulari e in droni giocattolo, questi droni hanno la capacità di identificare e neutralizzare il loro bersaglio in base al riconoscimento delle immagini usando parametri come il colore dell’uniforme, della pelle, età̀, sesso, etnia, eccetera. L’uso di tali droni autonomi per localizzare e attaccare i nemici è già̀ stato segnalato nel Medio Oriente. Quel che mi preoccupa particolarmente è la facilità con la quale questa tecnologia potrebbe passare dall’ambito militare a quello civile in Paesi con regimi autoritari impegnati a reprimere la popolazione. Sarà solo una questione di tempo prima che inizino ad apparire sul mercato nero, nelle mani di terroristi e aspiranti dittatori alla ricerca di modi efficaci per compiere omicidi o colpire su vasta scala specifici gruppi politici o etnici, creando ancor più̀ instabilità̀ a livello globale.
Cosa si può fare concretamente per scongiurare il rischio che queste armi continuino a proliferare?
Come per molte altre sfide cruciali di questo secolo, ci vorrà uno sforzo coordinato a livello globale. Negli ultimi anni ci sono state varie iniziative presso le Nazioni Unite per introdurre la messa a bando di armi in cui l’AI opera in totale autonomia senza il controllo in tempo reale di esseri umani. Stabilire accordi giuridicamente vincolanti sarà̀ ovviamente difficile perché le potenze militari più̀ forti non hanno incentivi a autolimitarsi. L’applicazione degli accordi sarebbe poi molto difficile da monitorare. Con le armi nucleari, i negoziati internazionali sono stati relativamente semplici in quanto riguardavano il numero di missili, ispezioni reciproche dei siti, eccetera. Con l’AI, se una nazione scopre nuove applicazioni militari, sarà̀ molto più̀ facile tenerle segrete. Data la posta in gioco, dovrà̀ esserci l’impegno di tutti. Non c’è soluzione in vista oltre a quella che può̀ essere raggiunta attraverso la cooperazione. Se si guarda alle armi biologiche, nonostante siano relativamente economiche da costruire e facili da usare, grazie alla forte posizione del pubblico e a un efficace sistema di controlli, si è riusciti ad evitare violazioni dei divieti su larga scala. Per le armi autonome si dovrà fare altrettanto. Tali sforzi di regolamentazione (o la loro mancanza) avranno una forte influenza sulla tecnologia bellica del XXI secolo.
L’AUTORE
Matteo Di Michele è un esperto di tecnologie emergenti con vent’anni di esperienza internazionale in molteplici funzioni e discipline come il diritto, la sostenibilità ambientale e l’Intelligenza artificiale. Dopo la sua laurea in Giurisprudenza con una tesi sulla protezione internazionale dei diritti umani e una breve esperienza di avvocato contrattualista presso una grande società di telecomunicazioni, si è trasferito negli Stati Uniti dove ha lavorato per dieci anni a fianco del celebre architetto Paolo Soleri ricoprendo diversi incarichi dirigenziali presso la Cosanti Foundation, organizzazione non-profit dedicata alla promozione dell’architettura ecologica e dello sviluppo sostenibile con sede nella famosa città-prototipo di Arcosanti in Arizona. Attualmente lavora negli Stati Uniti come manager di una multinazionale. La sua formazione universitaria include anche l’Mba in Supply Chain and Operations Management presso l’Arizona State University e diversi corsi presso l’Università della California (Uc Davis), Harvard Law, e Mit. Continua inoltre a dirigere la Cosanti Foundation come Presidente del Consiglio di amministrazione.