L’intelligenza artificiale cresce a una velocità impressionante. Ogni nuovo modello richiede più potenza di calcolo, più memoria, più server, più energia. Nel 2024 i data center hanno consumato circa 415 terawattora di elettricità, pari all’1,5% dei consumi elettrici globali. Negli ultimi cinque anni la loro domanda di energia è cresciuta in media del 12% all’anno. Nel 2025 il salto è stato ancora più evidente, con un aumento del 17% in un solo anno, mentre i data center dedicati all’intelligenza artificiale sono cresciuti ancora più rapidamente.
Secondo l’Agenzia Internazionale dell’Energia, il consumo elettrico dei data center potrebbe quasi raddoppiare, passando da 485 terawattora nel 2025 a circa 950 terawattora nel 2030. Entro quella data rappresenterebbe circa il 3% della domanda elettrica mondiale. I data center concentrati sull’intelligenza artificiale potrebbero triplicare i loro consumi nello stesso periodo.
Come può quindi continuare questa corsa senza trasformarsi in un enorme problema energetico?
Una delle risposte più affascinanti arriva dalla luce.
Le reti neurali ottiche usano impulsi luminosi per elaborare informazioni. Al posto dei tradizionali circuiti elettronici, che trasportano segnali attraverso il movimento degli elettroni, questi sistemi sfruttano fotoni, interferenze, guide d’onda e componenti fotonici. In termini semplici, provano a far “ragionare” una macchina usando la luce.
L’idea sembra uscita da un romanzo di fantascienza, eppure negli ultimi anni è diventata un campo di ricerca sempre più concreto. Nel 2024 Nature ha pubblicato uno studio su un metodo chiamato fully forward mode learning, pensato per addestrare reti neurali ottiche direttamente sul sistema fisico, senza dipendere soltanto da simulazioni digitali. È un passaggio importante, perché uno dei grandi limiti del calcolo ottico era proprio l’addestramento delle reti.
Nel 2025 la startup Lightmatter ha presentato un chip fotonico per l’intelligenza artificiale realizzato con GlobalFoundries. Il chip usa fasci di luce per accelerare i calcoli e ridurre il consumo energetico, cercando di superare anche uno dei problemi storici dei processori fotonici, la precisione nei calcoli più delicati. L’azienda era valutata 4,4 miliardi di dollari e aveva raccolto 850 milioni di dollari di finanziamenti.
Il vantaggio potenziale è enorme, perché oggi una parte significativa dell’energia consumata dall’intelligenza artificiale serve a muovere dati da un punto all’altro, tra processori, memorie e server. La luce può ridurre queste perdite, aumentare la velocità di trasmissione e contenere il calore prodotto dalle infrastrutture digitali. Per questo il tema interessa sempre di più l’industria dei semiconduttori e dei grandi data center.
Gli investimenti confermano che la fotonica non è più soltanto una promessa da laboratorio. Nel dicembre 2025 Marvell ha annunciato l’acquisizione di Celestial AI per 3,25 miliardi di dollari, puntando su una tecnologia che usa la luce per collegare chip e memoria nei sistemi di intelligenza artificiale. Nel marzo 2026 Nvidia ha annunciato investimenti da 2 miliardi di dollari ciascuno in Lumentum e Coherent, due aziende legate a laser, componenti ottici e tecnologie fotoniche per i data center.
La ricerca sta andando in due direzioni. Da una parte ci sono le reti neurali ottiche vere e proprie, cioè sistemi che cercano di eseguire calcoli e processi di apprendimento attraverso componenti luminosi. Dall’altra c’è l’uso della fotonica per collegare chip, memorie e server, rendendo più efficiente l’architettura fisica su cui gira l’intelligenza artificiale. Questa seconda strada appare oggi più vicina all’applicazione industriale, perché risponde a un problema immediato dei grandi centri di calcolo.
La rivoluzione non è ancora arrivata nei dispositivi di uso quotidiano, siamo in una fase di ricerca, prototipi, investimenti e prime applicazioni industriali. Il segnale però è chiaro l’intelligenza artificiale del futuro avrà bisogno di nuove forme di calcolo, perché l’attuale modello energetico rischia di diventare sempre più costoso e difficile da sostenere.
La luce potrebbe diventare una delle chiavi di questa trasformazione.
Dopo aver illuminato le città, trasmesso informazioni nelle fibre ottiche e collegato il mondo, ora potrebbe contribuire a far apprendere le macchine. Una luce che serve a vedere, comunicare, viaggiare nei cavi, calcolare, riconoscere e prevedere.
Forse una parte del futuro dell’intelligenza artificiale sarà fatta proprio così, meno calore, più velocità e meno spreco.





