di seguito la traduzione dell’articolo di Bruno Deffains, Professore di Economia e Diritto all’Università Panthéon-Assas di Parigi, pubblicato su “The Conversation”, sull’impatto dell’intelligenza artificiale sull’occupazione. Se ci stessimo ponendo la domanda sbagliata? La questione riguarda lo spazio che resterà agli esseri umani e quello che dovremmo difendere, oltre il conto dei posti distrutti o creati. L’IA cambierà il ruolo dei lavoratori della conoscenza e il modo in cui ciascuno di noi partecipa alla produzione di valore. Per questo scuola e università dovrebbero preparare i giovani a diventare “operatori dell’abbondanza”.
Il 10 marzo 2026 Jensen Huang, CEO di Nvidia, ha pubblicato un saggio in cui sosteneva che l’intelligenza artificiale crea più posti di lavoro di quanti ne distrugga. Pochi giorni prima, gli economisti di Anthropic avevano diffuso dati empirici che raccontavano una storia molto più complessa. Tra queste due letture resta una domanda centrale: in un mondo in cui le macchine producono contenuti in modo istantaneo, abbondante e spesso preciso, quali capacità essenziali devono conservare gli esseri umani?
C’è qualcosa di inquietante nell’attuale dibattito sull’intelligenza artificiale e il lavoro. Il punto non riguarda solo la perdita di occupazione, i lavoratori del terziario trasformati nelle nuove vittime del progresso tecnologico, o una possibile deindustrializzazione delle professioni intellettuali. Tutto questo è reale e merita attenzione. Questo approccio lascia però sullo sfondo una questione più profonda: quali capacità umane devono essere preservate in un mondo in cui le macchine producono all’istante, in abbondanza e spesso in modo adeguato? Per rispondere, il concetto di operatore dell’abbondanza offre una chiave di lettura utile.
L’abbondanza non coincide con il valore. Jensen Huang usa una formula efficace: l’intelligenza artificiale genera risposte contestualizzate in tempo reale, spesso di sorprendente plausibilità. In pochi secondi può produrre una bozza di conclusioni legali, una rassegna della letteratura, un’analisi dei rischi o un programma di studio. Tecnicamente è corretto. Questa precisione apparente nasconde però un’ambiguità fondamentale: produrre qualcosa non significa creare valore.
La vera domanda non riguarda soltanto la validità di un contenuto, bensì il suo valore in un contesto preciso. Per chi è valido? In quale situazione? Quali sono le conseguenze di un errore? Il modello non può rispondere pienamente a queste domande perché richiedono una forma di conoscenza che il filosofo Michael Polanyi ha definito tacita. Nella sua riflessione sui fondamenti della conoscenza scientifica scriveva: “Possiamo sapere più di quanto possiamo dire”. È una conoscenza che risiede nella memoria delle situazioni, nell’esperienza accumulata degli errori, nella comprensione delle dinamiche di potere dentro un’organizzazione, nella sensibilità verso le aspettative implicite di una giurisdizione, di un comitato, di un ambiente professionale. Questo tipo di sapere non può essere racchiuso in una risposta rapida, perché per sua natura resiste a ogni formalizzazione completa.
È qui che i dati empirici pubblicati nel gennaio 2026 dagli economisti di Anthropic offrono un’intuizione cruciale. Tra i milioni di interazioni analizzate con Claude, il 52% rientra in modalità aumentativa. In altre parole, l’essere umano itera, adatta, corregge e riorienta. Non delega semplicemente, collabora. Soprattutto, gli autori osservano una correlazione quasi perfetta tra la complessità della domanda posta e la qualità della risposta ottenuta. Il modello agisce come uno specchio amplificatore. Produce valore cognitivo solo nella misura in cui l’utente è in grado di formulare ciò che sta cercando. L’abbondanza generata dall’IA non è quindi una risorsa automaticamente accessibile. Dipende dalla competenza dell’utente. Questa non è una legge tecnica, è una legge cognitiva.
La figura professionale richiesta dall’economia dell’IA, e che i nostri sistemi di formazione non sono ancora pronti a formare, può essere definita “operatore dell’abbondanza”. Non è un programmatore di modelli e nemmeno un utente passivo. È una persona capace di formulare un problema in termini utilizzabili da un modello, valutare la rilevanza e l’affidabilità di un output, fornire il contesto che la macchina non possiede e assumersi la responsabilità di una decisione basata anche su suggerimenti che non ha generato direttamente.
Questa competenza non è tecnica in senso stretto. È profondamente intellettuale. Presuppone pensiero critico, capacità argomentativa, individuazione dei pregiudizi, esperienza dell’errore e capacità di comprenderne le cause. In breve, presuppone l’esposizione alla difficoltà dei compiti che si vogliono delegare, prima che la delega diventi automatica.
Qui entra in gioco il rischio silenzioso della delega cieca. Il rapporto pubblicato il 5 marzo 2026 dagli economisti di Anthropic Maxim Massenkoff e Peter McCrory introduce una distinzione cruciale tra esposizione teorica all’IA, cioè ciò che un modello potrebbe tecnicamente fare in una determinata professione, ed esposizione osservata, cioè ciò che effettivamente fa. La prima supera il 90% nelle professioni legali, finanziarie e manageriali. La seconda è molto più bassa per ragioni legali, organizzative e istituzionali. Il divario, però, si sta riducendo.
Il segnale d’allarme più preoccupante riguarda il rallentamento delle assunzioni di neolaureati tra i 22 e i 25 anni nei settori professionali più esposti. Le aziende assumono meno giovani per mansioni che l’intelligenza artificiale svolge più rapidamente e a costi inferiori. L’IA sta riducendo il flusso di ingresso nelle professioni qualificate, privando una generazione di ciò che l’economista Kenneth Arrow chiamava learning by doing, imparare facendo. È quel processo lento e insostituibile attraverso il quale si diventa capaci di supervisionare ciò che, all’inizio, non si comprende ancora pienamente.
La dequalificazione cognitiva nasce proprio qui. Consiste nella perdita progressiva della capacità di supervisionare ciò che viene delegato. Si delega la scrittura senza aver imparato davvero a scrivere. Si validano risultati senza aver sviluppato le capacità critiche necessarie a individuare errori, punti ciechi e risposte plausibili dove servirebbe verità. Questa delega cieca non è un destino tecnologico. È il prodotto di un potenziamento passivo, una delega senza reinvestimento in competenze superiori.
Il ragionamento diventa ancora più urgente con l’IA agentiva, la nuova generazione di sistemi che non attendono la convalida umana a ogni passaggio, ma agiscono in modo autonomo. Navigano, scrivono, eseguono codice, orchestrano altri agenti e prendono decisioni intermedie dentro catene di azioni che possono durare ore senza intervento umano. Jensen Huang lo ha detto al GTC 2026: tra dieci anni ogni dipendente umano lavorerà a fianco di 100 agenti di IA. La cifra può sembrare esagerata, ma la direzione è chiara.
Con l’IA generativa, il ciclo tornava sempre all’essere umano. Una persona valutava l’output e prendeva una decisione. Con l’IA agentiva, il ciclo può chiudersi internamente. L’operatore dell’abbondanza deve quindi diventare anche un architetto degli obiettivi. La domanda non sarà più soltanto: questo testo è valido? Diventerà: questo agente ha compreso correttamente ciò che volevo? Le sue cinquanta azioni intermedie sono state legittime? Gli obiettivi assegnati erano chiari, verificabili, coerenti con il contesto?
I dati di Anthropic mostrano che il tasso di successo dei modelli diminuisce in modo significativo quando aumenta la complessità del compito, proprio là dove gli agenti dispongono di maggiore autonomia. La supervisione umana diventa quindi più necessaria nel punto in cui è più difficile esercitarla. E diventa impossibile per chi non ha mai svolto il compito che dovrebbe supervisionare.
Da qui nasce l’urgenza di una politica della formazione. La tesi di Jensen Huang è incompleta. L’implementazione dell’IA può generare posti di lavoro nelle infrastrutture fisiche, dai data center alle reti energetiche. Tuttavia, come accadde con le reti elettriche all’inizio del Novecento, le infrastrutture non possono essere lasciate unicamente alle forze di mercato. Soprattutto, questo non dice nulla sugli effetti dell’IA sui percorsi di formazione delle professioni intellettuali. I dati indicano con forza la necessità di una politica educativa centrata sulle competenze richieste per governare l’IA. Non si tratta soltanto di imparare a programmare modelli, ma di imparare a pensare con essi, interrogarli, valutarne criticamente i risultati e mantenere viva la competenza che viene delegata. Bisogna formare operatori dell’abbondanza. È un compito che riguarda soprattutto scuole, università e istituti di formazione superiore. Ed è urgente, perché il calo dell’ingresso dei giovani nelle professioni più esposte lascia poco tempo prima che l’apprendimento diventi strutturalmente più difficile.
Ciò che l’IA non può fare al posto nostro è decidere se un risultato abbia davvero valore in un determinato contesto, per una determinata persona, con una determinata posta in gioco. Questo giudizio non è una tecnica. È una forma di responsabilità. E resta irriducibilmente umano.





