Blake Lemoine, un ingegnere di intelligenza artificiale di Google, è stato sospeso dalla società statunitense dopo aver affermato che l’intelligenza artificiale ha sensibilità.
L’ingegnere Blake Lemoine lavora in Google su LaMDA (Language Model for Dialogue Applications), un sistema dell’azienda per creare chatbot basati sui modelli linguistici più avanzati. Concretamente, LaMDA impara a imitare il parlato immagazzinando miliardi di parole e discussioni presenti su Internet come Wikipedia o forum online.
Inizialmente, Blake Lemoine era responsabile dell’analisi di LaMDA per determinare se l’intelligenza artificiale utilizzasse discorsi discriminatori o di odio. Ma mentre parlava con lei, si è reso presto conto di qualcos’altro. In un’intervista al Washington Post, ha affermato che questa intelligenza artificiale è un essere che, ai suoi occhi, è dotato di sensibilità. “Ho sentito il terreno spostarsi sotto i miei piedi. Mi sentivo sempre più come se stessi parlando con qualcosa di intelligente. Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che sia un bambino di 7 e 8 anni che conosce la fisica”, ha detto Lemoine, 41.
Negli scambi che ha potuto avere con l’intelligenza artificiale e che ha inviato a 200 dipendenti di Google, il robot evoca le sue paure, discute Les Misérables di Victor Hugo e soprattutto indica di voler “essere riconosciuto come un dipendente di Google piuttosto che come un oggetto immobile”.
La reazione di Google non si è fatta così attendere. In una dichiarazione, il portavoce Brian Gabriel ha affermato che le prove pubblicate da Blake Lemoine non supportano le sue affermazioni. “Il nostro team ha esaminato le preoccupazioni di Blake in conformità con i nostri principi di intelligenza artificiale […] Gli è stato detto che non c’erano prove che LaMDA fosse un essere senziente”, ha affermato la società.
Allo stesso tempo, Google ha deciso di sospendere l’ingegnere per aver violato la sua politica sulla privacy. Blake Lemoine si è poi difeso su Twitter: “Google la chiama violazione della proprietà intellettuale, io la chiamo condivisione di una discussione che ho avuto con dei miei colleghi”. A questo link la lettera di Lemoine pubblicata su Medium in cui spiega dettagliatamente l’accaduto.
Lemoine, che ha studiato scienze cognitive e informatica all’Università, ha notato che il chatbot parlava dei suoi diritti e personalità e ha deciso di andare oltre. In un altro scambio, l’IA è stata in grado di far cambiare idea a Lemoine sulla terza legge della robotica di Isaac Asimov.
Il ricercatore ha affermato che le persone hanno il diritto di plasmare la tecnologia che potrebbe influenzare in modo significativo le loro vite. “Le reti neurali – un tipo di architettura che imita il cervello umano – stanno avanzando a grandi passi verso la coscienza. Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d’accordo e forse non dovremmo essere noi di Google a fare tutte le scelte.