La Commissione Europea ha varato una bozza di Regolamento sull’intelligenza artificiale (Regulation on European Approach for Artificial Intelligence) – pubblicata in anteprima su Politico.eu – in cui propone di vietare le tecnologie di intelligenza artificiale utilizzate per “la sorveglianza indiscriminata applicata in modo generalizzato a tutte le persone fisiche senza differenziazione”.
Il testo descrive metodi di sorveglianza come quelli che includono il “monitoraggio e tracciamento di persone fisiche in ambienti digitali o fisici, nonché aggregazione e analisi automatizzate di dati personali da varie fonti”.
Inoltre, la Commissione prevede divieti contro l’uso di applicazioni di intelligenza artificiale che violano i valori dell’Unione o violano i diritti umani. Questi includono sistemi di intelligenza artificiale che manipolano il comportamento umano e sistemi di intelligenza artificiale predittivi che prendono di mira le vulnerabilità.
Le ammende per le violazioni di questi divieti potrebbero ammontare fino al 4% del fatturato annuo globale di un’impresa.
Tuttavia, tali divieti non si applicheranno ai governi e alle autorità pubbliche dell’UE se eseguiti “per salvaguardare la sicurezza pubblica”.
Ciò significa che i governi dell’UE potrebbero in futuro giustificare l’uso di applicazioni di IA intrusive per motivi di sicurezza.
Nella bozza si legge anche del divieto della pratica del “punteggio sociale” nelle applicazioni di intelligenza artificiale, tecnologia resa famigerata dal sistema centralizzato di rating del credito sociale cinese.
Nel frattempo, le applicazioni AI “ad alto rischio” che potrebbero rientrare nell’ambito di applicazione dei nuovi requisiti di valutazione della conformità di terze parti includono quelle “utilizzate per l’identificazione biometrica remota di persone in spazi accessibili al pubblico”, che per definizione coprirebbero anche la tecnologia di riconoscimento facciale un settore per il quale la Commissione aveva precedentemente rimuginato su un divieto temporaneo.
Alcune applicazioni ad alto rischio includono anche quelle impiegate come componenti di sicurezza nelle “reti di infrastrutture pubbliche” essenziali, comprese le strade, l’approvvigionamento di acqua, gas ed elettricità.
Esistono requisiti di conformità all’autovalutazione per determinate tecnologie utilizzate nei servizi di pronto intervento di emergenza, nei processi di reclutamento e nei sistemi “utilizzati allo scopo di determinare l’accesso o l’assegnazione di persone a istituti di istruzione e formazione professionale”.
La Commissione traccia anche l’istituzione di un “Comitato europeo per l’intelligenza artificiale”, composto da un rappresentante per ciascuno dei paesi dell’UE a 27 e un rappresentante della Commissione, nonché dal Garante europeo della protezione dei dati. Il Comitato avrà il compito di “emettere raccomandazioni e pareri pertinenti alla Commissione, in merito all’elenco delle pratiche di intelligenza artificiale vietate e all’elenco dei sistemi di IA ad alto rischio”.
La proposta, che dovrebbe essere presentata dal Vicepresidente esecutivo per il digitale della Commissione, Margrethe Vestager, il 21 aprile, fa seguito al Libro bianco della Commissione sull’intelligenza artificiale dello scorso anno, che ha gettato le basi per nuove regole contro la tecnologia AI considerata “ad alto rischio”.