di Marco Perilli – Luciano Floridi, Professore ordinario di Filosofia ed Etica dell’informazione all’Università di Oxford, dove dirige il Digital Ethics Lab, in un suo intervento al Privacy Day Forum che si è tenuto al CNR di Pisa il 25 maggio scorso, ha dichiarato che mettere ChatGPT a disposizione di chiunque è stato “a dir poco una sciocchezza”. Probabilmente è vero, ma è anche troppo tardi per porvi rimedio.
L’etica dell’AI e la sua compatibilità con i principi democratici è uno dei temi di maggiore attualità e importanza in relazione all’avvento dell’AI come fenomeno di massa. Le norme e i valori variano notevolmente tra diversi contesti culturali, geografici e sociali, e il modo in cui un sistema di intelligenza artificiale come ChatGPT naviga in questo panorama di diversità è un problema complesso e delicato.
Una delle questioni chiave è trovare il giusto equilibrio tra l’assecondare le idee dell’utente e il mantenere un comportamento responsabile e sicuro.
In alcuni casi, potrebbe essere appropriato che l’AI rifletta le credenze e i valori dell’utente, ma in altri, potrebbe essere necessario che l’AI contraddica o dissuada l’utente, per esempio quando le sue idee o azioni potrebbero causare danni a se stesso o agli altri.
La natura globale di un sistema come ChatGPT rende tale sfida non solo inedita ma anche particolarmente complessa. Un sistema di intelligenza artificiale utilizzato in tutto il mondo deve essere in grado di adattarsi e rispettare una vasta gamma di norme culturali, etiche e legali. Allo stesso tempo, deve evitare di imporre un particolare insieme di valori o norme su utenti che potrebbero non condividerli.
OpenAI Inc., l’organizzazione che ha sviluppato ChatGPT, ha annunciato, con un post apparso sul proprio blog il 25 maggio scorso, la concessione di dieci sovvenzioni da $100.000 ciascuna per finanziare esperimenti volti a istituire un processo democratico per decidere quali regole dovrebbero seguire i sistemi di intelligenza artificiale, entro i limiti definiti dalla legge. Quanto questo annuncio corrisponda a una esigenza reale di collaborazione di OpenAI, oppure a logiche mediatiche dell’azienda, che prova a dare la misura del proprio impegno sul tema della democrazia a suon di dollari, in questa sede poco interessa. Ricordiamo che il suo CEO, Sam Altman, nei giorni scorsi è stato ricevuto da diversi capi di stato tra cui il Presidente francese Emmanuel Macron, Rishi Sunak, Primo Ministro del Regno Unito e Pedro Sanchez, primo ministro spagnolo. Altman ha anche approfittato del suo tour, per assestare una bacchettata all’Europa sul cosiddetto AI Act, il progetto di regolamento europeo sull’intelligenza artificiale in via di approvazione, che si propone ambiziosamente di stabilire rigorosi limiti e requisiti per il suo utilizzo, annunciando che OpenAi potrebbe decidere di chiudere i rubinetti della propria intelligenza artificiale in Europa, se le regole non cambiano.
Il post di OpenAI illustra un prototipo di un sistema che utilizza ChatGPT per promuovere la deliberazione e incoraggiare la costruzione del consenso. Ad esempio, in una discussione su quanto dovrebbe essere personalizzato un assistente AI come ChatGPT per allinearsi ai gusti e alle preferenze dell’utente, ChatGPT potrebbe aiutare a raggruppare i partecipanti con opinioni simili e promuovere la proposta di dichiarazioni che cercano di raggiungere un accordo tra persone con visioni opposte.
OpenAI riconosce che ci sono diverse questioni che possono minare i processi democratici, come la mancata o inadeguata rappresentanza di gruppi minoritari o maggioritari, la manipolazione da parte di gruppi di interesse speciale o la disinformazione. Di conseguenza, stanno cercando team che affrontino proattivamente queste criticità e dimostrino consapevolezza dei potenziali difetti e svantaggi di vari approcci.
E’ infine da notare che OpenAI scrive a chiare lettere che i risultati dei Team che si aggiudicheranno il premio non saranno comunque vincolanti per l’azienda.
L’AUTORE
Marco Perilli è un avvocato che si occupa principalmente di diritto d’autore internazionale, protezione dei dati personali, diritto delle nuove tecnologie e intelligenza artificiale. Ha recentemente fondato il blog/laboratorio sul Diritto dell’Intelligenza Artificiale