8th

Jun
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > TERRA FUTURA
65 views 4 mins 0 Comment

Come mantenere il controllo sull’Intelligenza Artificiale

beppegrillo.it - Marzo 25, 2018

Nell’intelligenza artificiale (AI), le macchine eseguono azioni specifiche, osservano il risultato e adattano di conseguenza il proprio comportamento, osservano di nuovo il risultato e riadattano il loro comportamento ancora una volta, e così via, imparando da questo processo iterativo.

Ma questo processo potrebbe andare fuori controllo?

“L’IA cercherà sempre di evitare l’intervento umano e creerà una situazione in cui non può essere fermata”, afferma Rachid Guerraoui, professore al Distributed Programming dell’Università di Lausanne. Ciò significa che gli ingegneri  devono impedire alle macchine di imparare come eludere i comandi umani. I ricercatori che hanno studiato questo problema hanno scoperto un modo per  mantenere il controllo di un gruppo di robot.  Il loro lavoro fornisce un contributo importante allo sviluppo di veicoli e droni autonomi, ad esempio, in modo che possano operare in sicurezza.

Un metodo di apprendimento automatico utilizzato nell’intelligenza artificiale è l’apprendimento di rinforzo,  ovvero quando si è premiati per l’esecuzione di determinate azioni; una tecnica presa in prestito dalla psicologia comportamentale. Applicando questa tecnica all’IA, gli ingegneri usano un sistema a punti in cui le macchine guadagnano punti eseguendo le azioni giuste. Ad esempio, un robot può guadagnare un punto per impilare correttamente un set di scatole e un altro punto per recuperare una scatola dall’esterno. Ma se, in un giorno di pioggia, ad esempio, un operatore umano interrompe il robot mentre esce per raccogliere una scatola, il robot scoprirà che è meglio stare al chiuso, impilare scatole e guadagnare più punti possibile. La sfida non è fermare il robot, ma piuttosto programmarlo in modo che l’interruzione non cambi il suo processo di apprendimento.

Da una singola macchina a un’intera rete di intelligenza artificiale

Nel 2016, i ricercatori di Google DeepMind e il Future of Humanity Institute della Oxford University hanno sviluppato un protocollo di apprendimento che impedisce alle macchine di imparare dalle interruzioni e diventare quindi incontrollabili. Per esempio, nell’esempio sopra, la ricompensa del robot – il numero di punti che guadagna – verrebbe pesata dalla possibilità di pioggia, dando al robot un maggiore incentivo a recuperare le scatole all’esterno. “Qui la soluzione è abbastanza semplice perché abbiamo a che fare con un solo robot”, afferma Guerraoui.

Tuttavia, l’intelligenza artificiale è sempre più utilizzata in applicazioni che coinvolgono decine di macchine, come auto a guida autonoma sulla strada o droni in aria. “Questo rende le cose molto più complicate, perché le macchine iniziano ad imparare l’una dall’altra – specialmente nel caso di interruzioni. Imparano non solo da come vengono interrotte individualmente, ma anche da come vengono interrotte le altre”, afferma Alexandre Maurer, uno degli autori dello studio.

Dare all’uomo l’ultima parola

Questa complessità è ciò che i ricercatori mirano a risolvere attraverso la “safe interruptibility”, la sicurezza dell’interruzione. Il loro metodo rivoluzionario consente agli esseri umani di interrompere i processi di apprendimento dell’intelligenza artificiale quando necessario, facendo in modo che le interruzioni non cambino il modo in cui le macchine imparano. “In poche parole, aggiungiamo meccanismi di ‘dimenticanza’ agli algoritmi di apprendimento che sostanzialmente cancellano i bit della memoria di una macchina. In altre parole, i ricercatori hanno modificato il sistema di apprendimento e di ricompensa delle macchine. È come se un genitore punisse un figlio, questo non influenzerebbe i processi di apprendimento degli altri bambini della famiglia.

“Abbiamo lavorato su algoritmi esistenti e abbiamo dimostrato che l’interruzione sicura può funzionare indipendentemente dalla complessità del sistema AI, dal numero di robot coinvolti o dal tipo di interruzione.” dice Maurer

Tag: featured

PRECEDENTE

Earth Hour 2018, la mobilitazione globale contro i cambiamenti climatici

SUCCESSIVO

Vermi, gli infermieri della natura
Altri articoli
Ottobre 24, 2018
Plastic Tide: Un oceano di plastica
Agosto 10, 2020
Modificare i ricordi negativi
Ottobre 23, 2021
Firma per un Reddito di Base Universale!
Ottobre 9, 2019
La prima centrale solare galleggiante al mondo, in montagna
Comments are closed.

Cervelli

Viviamo sempre più in paludi alimentari: cosa sono, e perchè ci fanno male
Giu 8, 2023
Perché l’idea di “confini planetari” deve includere la giustizia ambientale
Giu 7, 2023

Terra Futura

La pianta che si nasconde dall’uomo
Giu 8, 2023
In Portogallo parte oggi la settimana di 4 giorni!
Giu 5, 2023

Io Grido

I Re Magi esistono a Pegli!
Mag 11, 2023
Accumulatori seriali
Mag 10, 2023
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

BEPPEGRILLO.IT

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2023 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com