16

Dec
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > TERRA FUTURA
502 views 4 min 0 Comment

Come mantenere il controllo sull’Intelligenza Artificiale

beppegrillo.it - Marzo 25, 2018

Nell’intelligenza artificiale (AI), le macchine eseguono azioni specifiche, osservano il risultato e adattano di conseguenza il proprio comportamento, osservano di nuovo il risultato e riadattano il loro comportamento ancora una volta, e così via, imparando da questo processo iterativo.

Ma questo processo potrebbe andare fuori controllo?

“L’IA cercherà sempre di evitare l’intervento umano e creerà una situazione in cui non può essere fermata”, afferma Rachid Guerraoui, professore al Distributed Programming dell’Università di Lausanne. Ciò significa che gli ingegneri  devono impedire alle macchine di imparare come eludere i comandi umani. I ricercatori che hanno studiato questo problema hanno scoperto un modo per  mantenere il controllo di un gruppo di robot.  Il loro lavoro fornisce un contributo importante allo sviluppo di veicoli e droni autonomi, ad esempio, in modo che possano operare in sicurezza.

Un metodo di apprendimento automatico utilizzato nell’intelligenza artificiale è l’apprendimento di rinforzo,  ovvero quando si è premiati per l’esecuzione di determinate azioni; una tecnica presa in prestito dalla psicologia comportamentale. Applicando questa tecnica all’IA, gli ingegneri usano un sistema a punti in cui le macchine guadagnano punti eseguendo le azioni giuste. Ad esempio, un robot può guadagnare un punto per impilare correttamente un set di scatole e un altro punto per recuperare una scatola dall’esterno. Ma se, in un giorno di pioggia, ad esempio, un operatore umano interrompe il robot mentre esce per raccogliere una scatola, il robot scoprirà che è meglio stare al chiuso, impilare scatole e guadagnare più punti possibile. La sfida non è fermare il robot, ma piuttosto programmarlo in modo che l’interruzione non cambi il suo processo di apprendimento.

Da una singola macchina a un’intera rete di intelligenza artificiale

Nel 2016, i ricercatori di Google DeepMind e il Future of Humanity Institute della Oxford University hanno sviluppato un protocollo di apprendimento che impedisce alle macchine di imparare dalle interruzioni e diventare quindi incontrollabili. Per esempio, nell’esempio sopra, la ricompensa del robot – il numero di punti che guadagna – verrebbe pesata dalla possibilità di pioggia, dando al robot un maggiore incentivo a recuperare le scatole all’esterno. “Qui la soluzione è abbastanza semplice perché abbiamo a che fare con un solo robot”, afferma Guerraoui.

Tuttavia, l’intelligenza artificiale è sempre più utilizzata in applicazioni che coinvolgono decine di macchine, come auto a guida autonoma sulla strada o droni in aria. “Questo rende le cose molto più complicate, perché le macchine iniziano ad imparare l’una dall’altra – specialmente nel caso di interruzioni. Imparano non solo da come vengono interrotte individualmente, ma anche da come vengono interrotte le altre”, afferma Alexandre Maurer, uno degli autori dello studio.

Dare all’uomo l’ultima parola

Questa complessità è ciò che i ricercatori mirano a risolvere attraverso la “safe interruptibility”, la sicurezza dell’interruzione. Il loro metodo rivoluzionario consente agli esseri umani di interrompere i processi di apprendimento dell’intelligenza artificiale quando necessario, facendo in modo che le interruzioni non cambino il modo in cui le macchine imparano. “In poche parole, aggiungiamo meccanismi di ‘dimenticanza’ agli algoritmi di apprendimento che sostanzialmente cancellano i bit della memoria di una macchina. In altre parole, i ricercatori hanno modificato il sistema di apprendimento e di ricompensa delle macchine. È come se un genitore punisse un figlio, questo non influenzerebbe i processi di apprendimento degli altri bambini della famiglia.

“Abbiamo lavorato su algoritmi esistenti e abbiamo dimostrato che l’interruzione sicura può funzionare indipendentemente dalla complessità del sistema AI, dal numero di robot coinvolti o dal tipo di interruzione.” dice Maurer

Tag: featured

PREVIOUS

Earth Hour 2018, la mobilitazione globale contro i cambiamenti climatici

NEXT

Vermi, gli infermieri della natura
Related Post
Aprile 1, 2025
L’IA sta riscrivendo la medicina: la nuova età dell’oro
Aprile 23, 2018
Panneli solari ibridi: energia anche quando piove
Aprile 25, 2020
Il Robot che produce energia “mangiando” metallo
Dicembre 15, 2018
L’Ucraina sperimenta il reddito universale
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
I robotaxi sono già qui
Il Blog di Beppe Grillo
BastaPensieri, una risposta concreta al bisogno di salute mentale
Il Blog di Beppe Grillo
Il nuovo volto delle megalopoli asiatiche
Il Blog di Beppe Grillo
Cibo e fossili: 5 miliardi di danni ambientali ogni ora
Il Blog di Beppe Grillo
Il Giappone e la sfida alle terre rare cinesi
Il Blog di Beppe Grillo
I satelliti oscurano le stelle
Il Blog di Beppe Grillo
Trentino: la telemedicina migliora la vita ai pazienti cardiaci
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2025 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com