DAL WEB
Articolo pubblicato su The Economist
L’innovazione nell’intelligenza artificiale (IA) è al centro del boom tecnologico odierno. Il “trasformatore” della rete neurale, la T di GPT, alla base di OpenAI, è stato pubblicato per la prima volta come ricerca dagli ingegneri di Google. TensorFlow e PyTorch, i framework utilizzati per costruire queste reti neurali, sono stati sviluppati rispettivamente da Google e Meta e condivisi con il mondo. Oggi, alcuni sostengono che l’IA sia troppo importante e sensibile per essere accessibile a tutti, ovunque. I modelli “open-source”, che rendono il codice disponibile a chiunque voglia utilizzarlo, remixarlo e adattarlo, sono spesso considerati pericolosi.
Numerose accuse sono state mosse contro l’IA open source. Una di queste è che stia aiutando i rivali dell’America: il 1° novembre è emerso che i ricercatori in Cina avevano adattato Llama 2, il modello linguistico open-source di Meta, per scopi militari. Un altro timore riguarda l’utilizzo di questi modelli da parte di terroristi e criminali, che potrebbero rimuovere le salvaguardie create per prevenire attività dannose. Anthropic, un’azienda specializzata nello sviluppo di IA, ha chiesto una regolamentazione urgente, avvertendo dei “rischi unici” dei modelli open source, come la loro capacità di essere “messi a punto” utilizzando dati sensibili, ad esempio per creare armi biologiche.
È vero che i modelli open source possono essere abusati, come qualsiasi altra tecnologia, ma questa visione tende a enfatizzare eccessivamente i rischi dell’IA open source e a sottovalutare i suoi benefici. Le informazioni necessarie per costruire un’arma biologica sono già disponibili su Internet e, come afferma Mark Zuckerberg, un’IA open source ben progettata dovrebbe favorire i difensori più che gli aggressori. Inoltre, i modelli cinesi sono ormai, in molti casi, comparabili a quelli di Meta.
Nel frattempo, i vantaggi del software open source sono evidenti. È alla base dell’intero settore tecnologico e alimenta i dispositivi che miliardi di persone usano quotidianamente. Il software di base del web, ad esempio, è open-source, con gli standard rilasciati nel pubblico dominio da Tim Berners-Lee del CERN. Lo stesso vale per l’algoritmo di compressione Ogg Vorbis, utilizzato da Spotify per lo streaming musicale a milioni di persone.
Rendere il software libero ha permesso agli sviluppatori di rafforzare il proprio codice, di provarne l’affidabilità, di sfruttare il lavoro volontario di molti e, in alcuni casi, di guadagnare offrendo supporto tecnico. L’apertura dovrebbe essere alla base anche dell’innovazione nell’intelligenza artificiale. Se la tecnologia ha davvero il potenziale che i suoi sostenitori sostengono, allora è un modo per garantire che il potere non resti concentrato nelle mani di poche aziende californiane.
I modelli chiusi continueranno a essere necessari per applicazioni sensibili o per compiti all’avanguardia. Tuttavia, i modelli aperti, o parzialmente aperti, avranno un ruolo cruciale. L’Open Source Initiative definisce un modello come open-source se è possibile scaricarlo e utilizzarlo liberamente, con una descrizione dei dati di addestramento sottostanti. Tuttavia, nessuno dei modelli open di grandi laboratori, come Alibaba e Meta, soddisfa completamente questi criteri. Offrendo piattaforme parzialmente aperte, però, questi laboratori forniscono informazioni sui loro modelli, permettendo ad altri di imparare e, talvolta, di sviluppare ulteriormente le loro tecniche.
Uno dei motivi per cui l’Open Source Initiative sostiene che i modelli di Meta non siano davvero open-source è che l’accesso a questi è limitato, ad esempio, alle applicazioni con meno di 700 milioni di utenti mensili. Nonostante ciò, Meta potrebbe trarre vantaggio dall’aprirsi ulteriormente. Più lo farà, più la sua piattaforma potrebbe diventare attraente per gli sviluppatori, aumentando le probabilità che una futura applicazione di successo si basi sulla sua tecnologia.
Infine, anche i governi dovrebbero permettere all’IA open source di prosperare, imponendo norme di sicurezza uniformi e evitando restrizioni sulla proprietà intellettuale che ostacolano la ricerca. Come per molti altri software, l’innovazione nell’IA cresce al meglio quando è aperta e trasparente.