Una nuova ricerca ha trovato un mezzo matematico per sorvegliare la propensione dei sistemi di Intelligenza Artificiale a fare scelte commerciali non etiche, potenzialmente molto costose e dannose. Un team di esperti ha sviluppato un filtro etico per l’intelligenza artificiale.
L’IA è sempre più diffusa in situazioni commerciali, come, ad esempio, lo stabilire i prezzi dei prodotti assicurativi da vendere a un determinato cliente o quella usata in borsa o nei sistemi finanziari complessi. In tutte queste situazioni ci sono motivi legittimi per stabilire prezzi diversi per persone diverse, l’IA ha un vasto numero di potenziali strategie tra cui scegliere, ma alcune non sono etiche e comportano sia un costo morale, sia l’applicazione di una penalità economica. Quindi, in un ambiente in cui le decisioni vengono sempre più prese senza l’intervento umano, vi è un forte incentivo a sapere in quali circostanze i sistemi di IA potrebbero adottare una strategia non etica e a ridurre tale rischio o eliminarlo del tutto, se possibile.
Matematici e statistici dell’Università di Warwick, Imperial, EPFL e Sciteb Ltd, si sono uniti così per creare un nuovo principio etico e fornire una formula semplice per stimarne l’impatto. Hanno esposto tutti i dettagli in un documento intitolato “Un principio di ottimizzazione non etico”, pubblicato su Royal Society Open Science mercoledì 1 luglio 2020.
Il nuovo principio di ottimizzazione può essere utilizzato per aiutare a trovare tutti gli ambiti in cui potrebbero essere nascosti problemi di scelta etica. In questo modo è più facile individuare dove è probabile che sorgano problemi e quindi suggerire come l’algoritmo di ricerca IA dovrebbe essere modificato per evitarli in futuro.