18

May
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > CERVELLI
475 views 9 min 0 Comment

Un’intelligenza artificiale senza pregiudizi

beppegrillo.it - Gennaio 4, 2024

“Una donna felice e un uomo serio che si abbracciano in un parco.” Che il tuo computer sia già in grado di descrivere le tue foto in questo modo è fantastico. E per molte persone che navigano in Internet utilizzando i lettori di schermo, è anche una tecnologia quasi essenziale. Tutto questo grazie all’intelligenza artificiale.

Certo, le macchine non sono perfette, a volte si guastano. Ma ultimamente stiamo scoprendo qualcosa di preoccupante: a volte i computer falliscono come fallisce un essere umano. Per una donna e un uomo con la stessa espressione, i sistemi di intelligenza artificiale possono tendere a credere che lei sia felice e che lui sia di cattivo umore. Chiamiamo questo tipo di errori pregiudizi e includono tendenze razziste, sessiste, abiliste… che possono finire per fare del male alle persone.

Per studiare questi pregiudizi prendiamo in esame un’applicazione specifica, il riconoscimento automatico delle emozioni nelle fotografie. Innanzitutto, dobbiamo chiarire al computer cosa intendiamo per “emozione”. La classificazione più utilizzata si basa su 6 emozioni di base: paura, tristezza, felicità, rabbia, disgusto e sorpresa. Questa classificazione è stata proposta dallo psicologo Paul Ekman negli anni ’70. Queste emozioni hanno dimostrato di essere più o meno universali e riconosciute da tutti. Tuttavia, è stato anche dimostrato che si riconoscono meglio tra persone dello stesso gruppo sociale, sesso, età… Non tutti noi ci esprimiamo esattamente allo stesso modo, né leggiamo le espressioni allo stesso modo. Anche senza rendercene conto, siamo di parte.

Queste differenze si riscontrano in molti contesti e talvolta si trasformano in stereotipi e pregiudizi. Ad esempio, ci aspettiamo che le donne siano più felici che arrabbiate, mentre per gli uomini vale il contrario. E questo si riflette su internet, dove le foto tendono a includere soprattutto donne sorridenti.

D’altra parte, affinché un sistema di intelligenza artificiale impari a distinguere queste emozioni, dobbiamo anche pensare a come le persone le comprendono. In realtà, la faccia è solo una parte di un puzzle molto complesso. Contribuiscono anche i gesti, la postura, le nostre parole… Nonostante si stia lavorando per risolvere tutte queste modalità con l’intelligenza artificiale, la forma più popolare e versatile è il riconoscimento basato sulle foto dei volti.

La creazione di un’intelligenza artificiale priva di pregiudizi è piuttosto una sfida. E tutto inizia da come facciamo “imparare” questa tecnologia. Chiamiamo il campo dell’intelligenza artificiale dedicato a questo apprendimento automatico. Sebbene esistano diverse forme di apprendimento, la più comune è l’apprendimento supervisionato.

L’idea è semplice: impariamo dagli esempi. E l’intelligenza artificiale ha bisogno di sapere per ogni esempio cosa vogliamo ottenere. Per imparare a riconoscere le emozioni, abbiamo bisogno di un mucchio di foto di volti con emozioni diverse: felici, tristi, ecc. La chiave è che per ogni foto, dobbiamo sapere quale emozione appare. Successivamente, passiamo le foto e le emozioni associate all’intelligenza artificiale. Attraverso un algoritmo di apprendimento, il sistema imparerà “da solo” a mettere in relazione le foto con le emozioni che appaiono. Immagine per immagine, chiediamo di prevedere un’emozione: se è giusta, andiamo avanti, e se è sbagliata, aggiustiamo il modello per correggere questo caso. A poco a poco, l’intelligenza artificiale imparerà e fallirà sempre meno. Se ci pensiamo, non è così diverso da come noi umani impariamo.

Come si può vedere, gli esempi sono essenziali in questo processo. Sebbene ci siano progressi che ci consentono di apprendere con pochi esempi o esempi con errori, un insieme ampio e ben catalogato di esempi è fondamentale per ottenere una buona intelligenza artificiale. Sfortunatamente, in pratica è comune avere esempi con errori, ad esempio volti etichettati con l’emozione sbagliata a foto senza volti o con volti di animali. Ma ci sono altri problemi, a volte più sottili e preoccupanti: il razzismo, il sessismo, l’abilismo…

Se i nostri esempi sono distorti, la macchina imparerà e riprodurrà questi pregiudizi. A volte moltiplicherà anche l’effetto dei pregiudizi. Ad esempio, se nelle nostre foto abbiamo solo persone arrabbiate dalla pelle scura e persone felici dalla pelle chiara, è molto probabile che l’intelligenza artificiale finisca per confondere il colore della pelle con l’umore. Tenderà a prevedere la rabbia ogni volta che vede persone dalla pelle scura.

Sfortunatamente, questa non è solo una teoria. È già stato dimostrato, ad esempio, che i sistemi di analisi facciale per riconoscere il genere falliscono più per le donne nere che per gli uomini bianchi e commettono regolarmente errori con persone che sono di aspetto trans.

Uno degli esempi più noti è stato quando nel 2018 un sistema di intelligenza artificiale ha erroneamente identificato 28 membri del Congresso degli Stati Uniti come criminali . Dei politici identificati, il 40% erano persone di colore, sebbene rappresentassero solo il 20% del Congresso. Tutto questo perché il sistema era stato addestrato principalmente sui bianchi e confondeva le persone di colore tra loro.

Rilevare e ridurre questi pregiudizi è un campo di ricerca molto attivo con un grande impatto sociale. Molti di questi pregiudizi sono sottili e correlati a diversi fattori demografici allo stesso tempo, il che rende l’analisi difficile. Inoltre, tutte le fasi dell’apprendimento devono essere riviste, dalla raccolta dei dati e le relative misurazioni all’applicazione finale. E normalmente non sono le stesse persone che lavorano in ogni fase.

Su internet ci sono molti database di emozioni già etichettati. Sfortunatamente, i database più grandi spesso hanno anche forti pregiudizi di sesso/genere, razza ed età. È necessario che a poco a poco si sviluppino database diversificati ed equilibrati su cui lavorare. Cioè, dobbiamo includere tutti i tipi di persone nei nostri database. Inoltre, tutti devono essere ben rappresentati in ogni emozione. Infine, se vogliamo raccogliere dati senza pregiudizi, dobbiamo pensare all’intero processo. Tutte le fasi, dalla raccolta dei dati ai test finali di un’intelligenza artificiale, devono essere svolte in modo attento e accessibile. Ed è necessario coinvolgere persone che sappiano riconoscere e segnalare possibili pregiudizi in ognuno di loro.

L’intera faccenda del riconoscimento delle emozioni può sembrare astratta, ma ha già importanti applicazioni. La più comune è la tecnologia assistiva, come la descrizione automatica delle foto per i non vedenti. È già utilizzato anche nei robot domestici. Può essere applicato anche in medicina, dove è stato possibile riconoscere automaticamente il dolore nei neonati che a volte non lo esprimono attraverso il pianto.

In ogni caso, lo studio dei pregiudizi nell’intelligenza artificiale va oltre le emozioni. Le tecnologie che sviluppiamo hanno un enorme impatto sulla vita delle persone. Abbiamo il dovere morale di assicurarci che siano equi, che il loro impatto sul mondo sia positivo.

Vogliamo costruire un’intelligenza artificiale di cui possiamo fidarci e che ci faccia sorridere. (Se vuoi partecipare alla creazione di un database di emozioni più equo e diversificato, puoi collaborare con il progetto Emotional Films)

Ricerca a cura di Mikel Galar Idoate, Daniel Paternain e Iris Dominguez Catena, pubblicata su The Conversation

PREVIOUS

Perché desideriamo sempre le cose sbagliate

NEXT

Sfatiamo alcuni miti sulla povertà
Related Post
Settembre 7, 2020
Competizione propagandistica
Luglio 29, 2023
Il grande Bluff della “Carta dedicata a te”
Settembre 6, 2018
“Crescere un figlio nero in America”
Gennaio 12, 2020
Il potere del sonno
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
Integratori…per l’immortalità
Il Blog di Beppe Grillo
Musk e il Reddito Universale Elevato
Il Blog di Beppe Grillo
Cina: quando il controllo sociale riscrive la famiglia
Il Blog di Beppe Grillo
La plastica che si dissolve in mare e fertilizza il terreno
Il Blog di Beppe Grillo
La rivoluzione dei robot quadrupedi
Il Blog di Beppe Grillo
Hawaii tassa i turisti per salvare il pianeta
Il Blog di Beppe Grillo
Envie, l’impresa sociale che ripara il futuro
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2025 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com