04

Dec
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > TERRA FUTURA
495 views 4 min 0 Comment

Come mantenere il controllo sull’Intelligenza Artificiale

beppegrillo.it - Marzo 25, 2018

Nell’intelligenza artificiale (AI), le macchine eseguono azioni specifiche, osservano il risultato e adattano di conseguenza il proprio comportamento, osservano di nuovo il risultato e riadattano il loro comportamento ancora una volta, e così via, imparando da questo processo iterativo.

Ma questo processo potrebbe andare fuori controllo?

“L’IA cercherà sempre di evitare l’intervento umano e creerà una situazione in cui non può essere fermata”, afferma Rachid Guerraoui, professore al Distributed Programming dell’Università di Lausanne. Ciò significa che gli ingegneri  devono impedire alle macchine di imparare come eludere i comandi umani. I ricercatori che hanno studiato questo problema hanno scoperto un modo per  mantenere il controllo di un gruppo di robot.  Il loro lavoro fornisce un contributo importante allo sviluppo di veicoli e droni autonomi, ad esempio, in modo che possano operare in sicurezza.

Un metodo di apprendimento automatico utilizzato nell’intelligenza artificiale è l’apprendimento di rinforzo,  ovvero quando si è premiati per l’esecuzione di determinate azioni; una tecnica presa in prestito dalla psicologia comportamentale. Applicando questa tecnica all’IA, gli ingegneri usano un sistema a punti in cui le macchine guadagnano punti eseguendo le azioni giuste. Ad esempio, un robot può guadagnare un punto per impilare correttamente un set di scatole e un altro punto per recuperare una scatola dall’esterno. Ma se, in un giorno di pioggia, ad esempio, un operatore umano interrompe il robot mentre esce per raccogliere una scatola, il robot scoprirà che è meglio stare al chiuso, impilare scatole e guadagnare più punti possibile. La sfida non è fermare il robot, ma piuttosto programmarlo in modo che l’interruzione non cambi il suo processo di apprendimento.

Da una singola macchina a un’intera rete di intelligenza artificiale

Nel 2016, i ricercatori di Google DeepMind e il Future of Humanity Institute della Oxford University hanno sviluppato un protocollo di apprendimento che impedisce alle macchine di imparare dalle interruzioni e diventare quindi incontrollabili. Per esempio, nell’esempio sopra, la ricompensa del robot – il numero di punti che guadagna – verrebbe pesata dalla possibilità di pioggia, dando al robot un maggiore incentivo a recuperare le scatole all’esterno. “Qui la soluzione è abbastanza semplice perché abbiamo a che fare con un solo robot”, afferma Guerraoui.

Tuttavia, l’intelligenza artificiale è sempre più utilizzata in applicazioni che coinvolgono decine di macchine, come auto a guida autonoma sulla strada o droni in aria. “Questo rende le cose molto più complicate, perché le macchine iniziano ad imparare l’una dall’altra – specialmente nel caso di interruzioni. Imparano non solo da come vengono interrotte individualmente, ma anche da come vengono interrotte le altre”, afferma Alexandre Maurer, uno degli autori dello studio.

Dare all’uomo l’ultima parola

Questa complessità è ciò che i ricercatori mirano a risolvere attraverso la “safe interruptibility”, la sicurezza dell’interruzione. Il loro metodo rivoluzionario consente agli esseri umani di interrompere i processi di apprendimento dell’intelligenza artificiale quando necessario, facendo in modo che le interruzioni non cambino il modo in cui le macchine imparano. “In poche parole, aggiungiamo meccanismi di ‘dimenticanza’ agli algoritmi di apprendimento che sostanzialmente cancellano i bit della memoria di una macchina. In altre parole, i ricercatori hanno modificato il sistema di apprendimento e di ricompensa delle macchine. È come se un genitore punisse un figlio, questo non influenzerebbe i processi di apprendimento degli altri bambini della famiglia.

“Abbiamo lavorato su algoritmi esistenti e abbiamo dimostrato che l’interruzione sicura può funzionare indipendentemente dalla complessità del sistema AI, dal numero di robot coinvolti o dal tipo di interruzione.” dice Maurer

Tag: featured

PREVIOUS

Earth Hour 2018, la mobilitazione globale contro i cambiamenti climatici

NEXT

Vermi, gli infermieri della natura
Related Post
Luglio 27, 2021
Trasformare vecchi pneumatici in parchi giochi
Settembre 19, 2018
Per la prima volta nella storia una nave attraversa la rotta artica, a causa dello scioglimento dei ghiacci
Aprile 11, 2025
Cannabis light sotto attacco, ma il settore risponde: al via IndicaSativa 2025
Maggio 17, 2023
Biglietto climatico: rivoluzioniamo la mobilità!
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
Scegliere un figlio con un’app
Il Blog di Beppe Grillo
Adolescenti agganciati ai social: le accuse contro i Big delle piattaforme
Il Blog di Beppe Grillo
Tumore alla prostata, il Regno Unito dice no allo screening di massa
Il Blog di Beppe Grillo
12345 e il cervello urbano: come la Cina sta digitalizzando la vita in città
Il Blog di Beppe Grillo
L’impatto ambientale dell’IA
Il Blog di Beppe Grillo
Internet Society Italia Festeggia 25 anni con una giornata di eventi a Novara
Il Blog di Beppe Grillo
Niente giustifica la caccia: firma la petizione!
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2025 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com