Nell’intelligenza artificiale (AI), le macchine eseguono azioni specifiche, osservano il risultato e adattano di conseguenza il proprio comportamento, osservano di nuovo il risultato e riadattano il loro comportamento ancora una volta, e così via, imparando da questo processo iterativo.
Ma questo processo potrebbe andare fuori controllo?
“L’IA cercherà sempre di evitare l’intervento umano e creerà una situazione in cui non può essere fermata”, afferma Rachid Guerraoui, professore al Distributed Programming dell’Università di Lausanne. Ciò significa che gli ingegneri devono impedire alle macchine di imparare come eludere i comandi umani. I ricercatori che hanno studiato questo problema hanno scoperto un modo per mantenere il controllo di un gruppo di robot. Il loro lavoro fornisce un contributo importante allo sviluppo di veicoli e droni autonomi, ad esempio, in modo che possano operare in sicurezza.
Un metodo di apprendimento automatico utilizzato nell’intelligenza artificiale è l’apprendimento di rinforzo, ovvero quando si è premiati per l’esecuzione di determinate azioni; una tecnica presa in prestito dalla psicologia comportamentale. Applicando questa tecnica all’IA, gli ingegneri usano un sistema a punti in cui le macchine guadagnano punti eseguendo le azioni giuste. Ad esempio, un robot può guadagnare un punto per impilare correttamente un set di scatole e un altro punto per recuperare una scatola dall’esterno. Ma se, in un giorno di pioggia, ad esempio, un operatore umano interrompe il robot mentre esce per raccogliere una scatola, il robot scoprirà che è meglio stare al chiuso, impilare scatole e guadagnare più punti possibile. La sfida non è fermare il robot, ma piuttosto programmarlo in modo che l’interruzione non cambi il suo processo di apprendimento.
Da una singola macchina a un’intera rete di intelligenza artificiale
Nel 2016, i ricercatori di Google DeepMind e il Future of Humanity Institute della Oxford University hanno sviluppato un protocollo di apprendimento che impedisce alle macchine di imparare dalle interruzioni e diventare quindi incontrollabili. Per esempio, nell’esempio sopra, la ricompensa del robot – il numero di punti che guadagna – verrebbe pesata dalla possibilità di pioggia, dando al robot un maggiore incentivo a recuperare le scatole all’esterno. “Qui la soluzione è abbastanza semplice perché abbiamo a che fare con un solo robot”, afferma Guerraoui.
Tuttavia, l’intelligenza artificiale è sempre più utilizzata in applicazioni che coinvolgono decine di macchine, come auto a guida autonoma sulla strada o droni in aria. “Questo rende le cose molto più complicate, perché le macchine iniziano ad imparare l’una dall’altra – specialmente nel caso di interruzioni. Imparano non solo da come vengono interrotte individualmente, ma anche da come vengono interrotte le altre”, afferma Alexandre Maurer, uno degli autori dello studio.
Dare all’uomo l’ultima parola
Questa complessità è ciò che i ricercatori mirano a risolvere attraverso la “safe interruptibility”, la sicurezza dell’interruzione. Il loro metodo rivoluzionario consente agli esseri umani di interrompere i processi di apprendimento dell’intelligenza artificiale quando necessario, facendo in modo che le interruzioni non cambino il modo in cui le macchine imparano. “In poche parole, aggiungiamo meccanismi di ‘dimenticanza’ agli algoritmi di apprendimento che sostanzialmente cancellano i bit della memoria di una macchina. In altre parole, i ricercatori hanno modificato il sistema di apprendimento e di ricompensa delle macchine. È come se un genitore punisse un figlio, questo non influenzerebbe i processi di apprendimento degli altri bambini della famiglia.
“Abbiamo lavorato su algoritmi esistenti e abbiamo dimostrato che l’interruzione sicura può funzionare indipendentemente dalla complessità del sistema AI, dal numero di robot coinvolti o dal tipo di interruzione.” dice Maurer