Google sta compiendo un passo decisivo per rafforzare il suo impegno nell’ambito dell’intelligenza artificiale per l’esercito statunitense, unendosi a un ristretto gruppo di aziende che già forniscono modelli avanzati per attività classificate. Secondo un articolo di The Information, Google ha firmato un accordo con il Dipartimento della Difesa statunitense che consente l’utilizzo dei suoi modelli di intelligenza artificiale su sistemi classificati. L’accordo pone Google al fianco di OpenAI e xAI, che hanno già stipulato accordi simili.
Secondo la fonte riportata nell’articolo, “l’accordo consente al Pentagono di utilizzare l’intelligenza artificiale di Google per ‘qualsiasi scopo governativo lecito’, riprendendo un linguaggio controverso emerso in altre discussioni tra aziende di intelligenza artificiale e il Pentagono”, ha aggiunto The Information.
Il rapporto viene pubblicato appena due mesi dopo che Anthropic si è opposta al Pentagono in merito alle restrizioni sull’uso dell’intelligenza artificiale . Nel frattempo, l’ambito di utilizzo dell’IA è ampio. Il Pentagono può utilizzare l’IA di Google per “qualsiasi scopo governativo lecito”, una frase emersa in passato in discussioni tra aziende di IA e funzionari della difesa e che ha suscitato interrogativi sulla reale portata di tali autorizzazioni.
Le reti classificate sono al centro di alcune delle attività più delicate delle forze armate, dalla pianificazione delle missioni al puntamento delle armi. L’accesso a questi ambienti segna un passaggio dall’uso sperimentale dell’IA a una più profonda integrazione operativa. Il Pentagono si sta muovendo in questa direzione da mesi, firmando accordi del valore massimo di 200 milioni di dollari ciascuno con importanti laboratori di IA entro il 2025, tra cui Google, OpenAI e Anthropic. Precedenti articoli di Reuters indicavano che i funzionari della difesa avevano esortato le aziende a rendere i propri strumenti disponibili sui sistemi classificati senza le consuete restrizioni applicate agli utenti commerciali. Questa tensione è visibile nella struttura dell’accordo di Google. L’intesa prevede che l’azienda supporti gli adeguamenti dei suoi filtri di sicurezza per l’IA su richiesta del governo, una clausola che solleva interrogativi su quanto controllo le aziende tecnologiche mantengano una volta che i loro modelli vengono implementati in contesti di sicurezza nazionale. Allo stesso tempo, il contratto pone un limite. Afferma infatti che “le parti concordano sul fatto che il sistema di intelligenza artificiale non è destinato, né deve essere utilizzato, per la sorveglianza di massa interna o per armi autonome (inclusa la selezione dei bersagli) senza un’adeguata supervisione e controllo umano”. Tale formulazione riflette le continue preoccupazioni su come l’intelligenza artificiale potrebbe essere utilizzata in scenari di difesa, soprattutto in ambiti legati alla sorveglianza e al processo decisionale in ambito letale. Tale garanzia ha dei limiti. L’accordo chiarisce che Google non ha l’autorità di bloccare o annullare le decisioni governative legittime legate alle sue operazioni. In pratica, ciò significa che l’azienda può definire dei limiti di principio, ma non può porre il veto su come la tecnologia verrà effettivamente utilizzata una volta implementata nei sistemi governativi.
Il Pentagono, che sotto la presidenza di Donald Trump è stato definito il “Dipartimento della Guerra”, ha rifiutato di commentare la notizia. Google ha affermato di continuare a supportare il lavoro del governo sia in contesti classificati che non classificati, inquadrando la partnership come parte di un impegno più ampio volto a garantire un accesso sicuro ai suoi modelli. “Riteniamo che fornire l’accesso tramite API ai nostri modelli commerciali, anche sull’infrastruttura di Google, con pratiche e termini conformi agli standard del settore, rappresenti un approccio responsabile a sostegno della sicurezza nazionale”, ha dichiarato un portavoce dell’azienda a Reuters.
I funzionari della difesa hanno affermato di non essere interessati all’utilizzo dell’intelligenza artificiale per la sorveglianza interna o per armi completamente autonome. Il loro obiettivo, dicono, è quello di consentire “qualsiasi uso lecito” dell’IA all’interno dei quadri giuridici esistenti. Questa posizione ha già creato attriti. All’inizio di quest’anno, Anthropic si è opposta alle richieste di allentare le restrizioni sulle armi autonome e sulla sorveglianza. Il disaccordo ha portato il Pentagono a etichettare l’azienda come un rischio per la catena di approvvigionamento.
Il risultato è una nuova fase nel rapporto tra la Silicon Valley e le forze armate. I modelli di intelligenza artificiale, nati come strumenti per i consumatori, si stanno spostando in ambienti classificati, dove la posta in gioco è più alta e il controllo è più difficile da esercitare. L’ingresso di Google in questo contesto segnala che questo cambiamento non è più teorico.





