Informativa Privacy

Questo sito web utilizza i cookies per migliorare l'esperienza dell'utente. Continuando la navigazione l'utente acconsente a tutti i cookie in conformità con la Normativa sui Cookies. Per maggiori informazioni visualizza la Cookie Policy

Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

  • Cookie
    cookieyes-consenso
  • Duration
    1 anno
  • Description

    CookieYes imposta questo cookie per ricordare le preferenze di consenso degli utenti in modo che le loro preferenze vengano rispettate nelle successive visite a questo sito. Non raccoglie né memorizza alcuna informazione personale sui visitatori del sito.

  • Cookie
    elementor
  • Duration
    mai
  • Description

    Il tema del sito Web utilizza questo cookie. Consente al proprietario del sito Web di implementare o modificare il contenuto del sito Web in tempo reale.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

  • Cookie
    _ga_*
  • Duration
    1 anno 1 mese 4 giorni
  • Description
    Google Analytics imposta questo cookie per memorizzare e contare le visualizzazioni di pagina.
  • Cookie
    _ga
  • Duration
    1 anno 1 mese 4 giorni
  • Description

    Google Analytics imposta questo cookie per calcolare i dati su visitatori, sessioni e campagne e tenere traccia dell'utilizzo del sito per il rapporto di analisi del sito. Il cookie memorizza le informazioni in modo anonimo e assegna un numero generato in modo casuale per riconoscere i visitatori unici.

  • Cookie
    _gid
  • Duration
    1 giorno
  • Description
    Google Analytics imposta questo cookie per memorizzare informazioni su come i visitatori utilizzano un sito Web creando al contempo un rapporto analitico sulle prestazioni del sito Web. Alcuni dei dati raccolti includono il numero di visitatori, la loro provenienza e le pagine che visitano in modo anonimo.
  • Cookie
    _gat_gtag_UA_*
  • Duration
    1 minuto
  • Description
    Google Analytics imposta questo cookie per memorizzare un ID utente univoco.
  • Cookie
    CONSENSO
  • Duration
    2 anni
  • Description
    YouTube imposta questo cookie tramite video di YouTube incorporati e registra dati statistici anonimi.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

25

Jul
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

web@beppegrillo.it

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

pubblicita@beppegrillo.it

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > TERRA FUTURA
479 views 7 min 0 Comment

Un algoritmo condanna i criminali

beppegrillo.it - Gennaio 14, 2019

L’intelligenza artificiale (IA) ha ormai influenzato quasi ogni aspetto della nostra vita. Naturalmente, le previsioni delle macchine non possono sempre essere accurate al 100%. Ma il costo dell’errore non comporta nessun sacrificio. Questo quasi sempre.

Infatti c’è qualche eccezione.

Oggi usiamo molta analisi predittiva. Per esempio, quando Netflix ci raccomanda dei film che potrebbero piacerci, quando Amazon ci consiglia dei prodotti in base ai nostri gusti, o cose del genere.

Ma cosa pensereste se la tecnologia ci dovesse consigliare dei nuovi trattamenti contro il cancro o dovrebbe assegnarci dei punteggi per valutare la probabilità di essere recidivi alla giustizia?

Quando parliamo di polizia predittiva, molti pensano subito al film di fantascienza Minority Report, con Tom Cruise. Basato su un racconto di Philip K. Dick, il film racconta di un futuro in cui i crimini possono essere prevenuti. Questo può sembrare uno scenario inverosimile.

Tuttavia, la giustizia predittiva esiste già oggi.

Costruito su sistemi avanzati di apprendimento automatico, c’è un’ondata di nuove aziende che forniscono servizi di previsione ai tribunali; per esempio, sotto forma di algoritmi di valutazione del rischio, che stimano la probabilità di recidiva per i criminali.

Quindi, le macchine possono capire chi sarà un criminale?

Dopo il suo arresto nel 2013, Eric Loomis è stato condannato a sei anni di carcere basandosi in parte su una previsione che avrebbe commesso altri crimini. Equivant, la società dietro il software utilizzato nel caso di Eric Loomis, afferma di aver fornito una visione a 360 gradi dell’imputato, al fine di fornire assistenza algoritmica dettagliata nel processo decisionale giudiziario.

Questa è una delle tante compagnie nel campo della giustizia predittiva che oggi vengono utilizzate negli Stati Uniti. Un recente rapporto del Centro Informazioni sulla Privacy Elettronica, rileva che gli algoritmi sono sempre più utilizzati in tribunale per impostare la libertà su cauzione, determinare le sentenze e persino contribuire a determinare la colpevolezza o l’innocenza.

Sembra incredibile, ma è così.

Tuttavia, un rapporto investigativo di ProPublica ha rilevato che questi algoritmi tendono a rafforzare il pregiudizio razziale delle forze dell’ordine. Infatti le valutazioni algoritmiche tendono a dichiarare gli imputati neri, come criminali futuri a un tasso quasi doppio di quelli dei bianchi. Inoltre, i giudici che hanno fatto affidamento su queste nuove tecnologie, in genere non hanno capito come sono stati calcolati i punteggi.

Ora qual è il problema?

Questi sistemi di IA sono affidabili se i dati immessi sono corretti e rilevati con metodi scientifici. Se i dati sottostanti sono distorti in qualsiasi forma, c’è il rischio che disuguaglianze strutturali e pregiudizi non siano solo replicati, ma anche amplificati.

Persino piccole irregolarità possono produrre una differenza enorme. Ne sanno qualcosa chi affronta il problema della metodologia della ricerca.

Facciamo un esempio.

Google ha fatto un recente esperimento chiamato “Quick, Draw!” con cui invitava gli utenti internet di tutto il mondo a partecipare a un divertente gioco di disegno. In ogni round del gioco, gli utenti sono stati sfidati a disegnare un oggetto in meno di 20 secondi. Più di 20 milioni di persone provenienti da 100 nazioni hanno partecipato al gioco, con oltre 2 miliardi di disegni diversi di tutti i tipi di oggetti, inclusi gatti, sedie, cartoline, farfalle, skyline, ecc.

Ma quando i ricercatori hanno esaminato i disegni delle scarpe nel set di dati, si sono resi conto che un gran numero di utenti aveva disegnato scarpe che sembravano Converse. Senza volerlo si sono resi conto che il sistema di intelligenza artificiale aveva imparato a cogliere i tipici attributi visivi delle scarpe da ginnastica come l’esempio “tipo” di scarpa. Di conseguenza, le scarpe che non sembravano scarpe da ginnastica, come quelle con tacchi alti, ballerine o zoccoli, non erano riconosciute come scarpe.

Questo è un semplicissimo esempio di come il libero fruire dei dati possa comportare delle storture.

Recenti studi dimostrano che, se non vengono controllati, i modelli di apprendimento automatico apprenderanno stereotipi di genere obsoleti, come il fatto che i “medici” sono di sesso maschile e le “receptionist” di sesso femminile. In modo simile, i modelli di IA, addestrati su immagini di ex presidenti degli Stati Uniti, hanno previsto come probabili nuovi presidenti solo i candidati maschi.

Allora come possiamo progettare una IA equa?

Nell’ottobre 2018, la Conferenza internazionale dei responsabili della protezione dei dati e della privacy ha pubblicato la Dichiarazione sull’etica e la protezione nell’intelligenza artificiale. La dichiarazione afferma che “i pregiudizi illegittimi o le discriminazioni che possono derivare dall’uso dei dati nell’intelligenza artificiale dovrebbero essere ridotti ed eliminati”.

Questo potrebbe essere fatto, ma l’IA deve essere valutata su un insieme più ampio di criteri etici e legali; non solo sulla base dell’accuratezza della classificazione e delle matrici.

É ovvio che oggi ci sono dei problemi che devono essere risolti. Per esempio tutti i soggetti dovrebbero avere pari possibilità di essere rappresentati nei dati, oppure i sistemi di apprendimento automatico dovrebbero evitare effetti ingiusti sugli individui, in particolare gli impatti relativi a vulnerabilità sociali e fisiche e altri attributi sensibili, come razza, etnia, genere, nazionalità, orientamento sessuale, religione e credo politico.

É ovvio che anche l’inclusione di queste variabili non risolve il problema, ma la speranza è che, in futuro, questo approccio possa aiutare a costruire un sistema di intelligenza artificiale “neutrale” che possa davvero aiutarci.

Ma se anche l’IA ha gli stessi pregiudizi e BIAS della mente umana, questo non porta lontano, anzi non fa altro che rafforzare le nostre mancanze.

Tag: featured

PREVIOUS

Legalizzare la produzione e la vendita di marijuana: una priorità

NEXT

Rosemary Mason: La Bayer Crop Science non è mai stata trasparente
Related Post
Settembre 28, 2021
Aria condizionata senza elettricità
Dicembre 18, 2023
I primi risultati del più grande esperimento mondiale sul Reddito Universale
Maggio 29, 2024
C’è una falla esplosiva nel piano di riarmo dell’Ucraina
Marzo 13, 2018
L’empatia è anche un fattore genetico
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
Italia sempre più povera
Il Blog di Beppe Grillo
L’energia solare è ora più economica del 41% rispetto ai combustibili fossili
Il Blog di Beppe Grillo
Il disgusto per la carne è scritto nell’evoluzione
Il Blog di Beppe Grillo
MedGemma: l’IA open-source di Google cambia la sanità
Il Blog di Beppe Grillo
Pannolini con funghi per combattere i rifiuti in discarica
Il Blog di Beppe Grillo
Storica vittoria per il clima: da oggi in Italia è finalmente possibile ottenere giustizia climatica
Il Blog di Beppe Grillo
La fattoria che ha cambiato il latte con l’affetto
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: web@beppegrillo.it

PUBBLICITA'

Per la tua pubblicità su questo Blog: pubblicita@beppegrillo.it
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2025 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com