27

Feb
Facebook
Twitter
Instagram
YouTube
E-mail
EMAIL

 

[email protected]

Il Blog di Beppe Grillo Blog ufficiale di Beppe Grillo con articoli, approfondimenti ed opinioni
PER LA TUA PUBBLICITÀ

 

[email protected]

Menu   ≡ ╳
  • HOME
  • IO GRIDO
  • CERVELLI
  • TERRA FUTURA
  • COSE PREZIOSE
  • MOBILITA’
  • SALUTE
  • VIDEO
  • ARCHIVIO
    • 2005
    • 2006
    • 2007
    • 2008
    • 2009
    • 2010
    • 2011
    • 2012
    • 2013
    • 2014
    • 2015
    • 2016
  • CONTATTI
☰
Il Blog di Beppe Grillo
Home > TERRA FUTURA
3 views 7 min 0 Comment

Il Pentagono contro Claude. Quando lo stato vuole togliere l’etica all’IA

beppegrillo.it - Febbraio 27, 2026

Negli Stati Uniti l’IA è diventata un terreno di scontro politico. Il Pentagono sta facendo pressione su Anthropic, la società che sviluppa Claude, per togliere alcuni limiti integrati nel modello e usarlo con più libertà in ambito militare.

Per capire la questione facciamo un passo indietro e spieghiamo da dove nasce Claude.

Claude è un’intelligenza artificiale nata quasi come una reazione culturale al modo in cui l’IA stava evolvendo. È stata sviluppata da Anthropic, una società fondata nel 2021 da un gruppo di ex ricercatori di OpenAI (ChatGpt), tra cui il CEO Dario Amodei. La nascita dell’azienda è stata una scelta precisa: i fondatori volevano costruire modelli di intelligenza artificiale potenti e soprattutto con un’attenzione alla sicurezza e al controllo. Il nome stesso “Claude” è un nome volutamente umano. L’idea alla base del progetto era sviluppare un modello linguistico avanzato capace di competere con ChatGPT ma addestrato secondo un principio chiamato Constitutional AI. In pratica, invece di limitarsi a filtrare le risposte dopo l’addestramento, Claude ha cercato di incorporare regole etiche direttamente nel comportamento del modello, come se avesse una sorta di “costituzione interna”.

Fin dall’inizio l’azienda ha dichiarato che l’obiettivo era quello di costruire un’IA più sicura, non solo più intelligente. Questa posizione ha attratto investimenti enormi, tra cui quelli di Amazon e Google, che hanno sostenuto economicamente lo sviluppo dei modelli Claude 1, 2 e 3, portandoli rapidamente ai vertici delle classifiche di performance nei test internazionali.
Claude si è distinta così per alcune caratteristiche chiave: capacità di gestire testi molto lunghi, maggiore prudenza nelle risposte sensibili, un orientamento dichiarato verso la riduzione dei rischi sistemici dell’IA. E proprio questa identità “prudente” è diventata il marchio distintivo dell’azienda.
Quando Anthropic parla di “Constitutional AI” parla di un metodo tecnico preciso. Invece di addestrare un modello e poi correggerlo a posteriori con filtri esterni, si costruisce una sorta di “costituzione” interna che guida il comportamento dell’intelligenza artificiale.
Nel modello tradizionale, un sistema linguistico produce una risposta e successivamente interviene un filtro umano o algoritmico per bloccare contenuti pericolosi. Nel caso di Claude, la struttura è diversa. Il modello viene addestrato a criticare le proprie risposte secondo un insieme di principi scritti, ispirati a dichiarazioni sui diritti umani, sicurezza e non violenza. È come se l’IA fosse invitata a chiedersi da sola se ciò che sta per dire sia coerente con una serie di regole fondamentali.
Questa architettura nasce dalla convinzione, espressa dal CEO Dario Amodei, che i modelli sempre più potenti possano diventare rischiosi se non integrano meccanismi di autocontrollo. Anthropic ha impostato la propria identità su un punto chiaro. L’IA deve essere potente, ma prevedibile. Utile, ma allineata a principi stabili.
Nel tempo Claude si è distinta per la capacità di gestire contesti molto lunghi e per una maggiore cautela nelle risposte su temi sensibili.

Ed è proprio questa prudenza che oggi entra in collisione con il Dipartimento della Difesa degli Stati Uniti.

Negli ultimi giorni si è intensificata una delle dispute più delicate nel panorama dell’intelligenza artificiale internazionale, con il governo degli Stati Uniti e in particolare il Segretario alla Difesa Pete Hegseth che ha lanciato un duro ultimatum contro Anthropic.

La disputa nasce da un contratto da 200 milioni di dollari che Anthropic aveva già stipulato con il Dipartimento della Difesa per fornire la sua tecnologia AI a uso militare e un accordo che fino a poco tempo fa era visto come un esempio di cooperazione tra industria tech e difesa americana.

Tuttavia, negli ultimi mesi il conflitto si è acceso perché il Pentagono vuole rimuovere le restrizioni etiche e tecniche poste da Anthropic sull’uso di Claude, consentendo così alle forze armate di impiegarlo in qualsiasi “uso legale”, includendo applicazioni estremamente controverse come sistemi di sorveglianza di massa interna o armi autonome che operano senza supervisione umana.

Anthropic ha risposto al governo affermando che la sua tecnologia non può essere utilizzata in quei modi perché violerebbe i principi etici e di sicurezza su cui l’azienda è stata fondata. Dario Amodei ha dichiarato pubblicamente che la società non può accedere alla richiesta di rimuovere i limiti, in particolare riguardo alla sorveglianza domestica o ai sistemi d’arma completamente autonomi.

La disputa ha raggiunto il punto critico quando Hegseth ha imposto un ultimatum (fine febbraio). Se Anthropic non accetterà di eliminare queste restrizioni, il governo potrebbe intraprendere azioni drastiche, tra cui cancellare il contratto e designare l’azienda come un rischio per la catena di approvvigionamento della difesa, una mossa che di fatto escluderebbe la società da qualsiasi futura collaborazione con fornitori militari.

Alcuni rapporti indicano inoltre che il Pentagono potrebbe invocare il Defense Production Act, una legge degli anni Cinquanta solitamente attivata in emergenze nazionali, per costringere l’azienda a fornire alla difesa l’accesso senza limiti alla sua tecnologia se l’accordo non viene raggiunto consensualmente.

Da una parte quindi abbiamo uno Stato che rivendica il primato della sicurezza nazionale in un contesto geopolitico segnato dalla competizione tecnologica globale. Dall’altra un’azienda che sostiene che certi limiti non siano opzionali, ma parte integrante della tecnologia stessa.

Quello che oggi appare come uno scontro improvviso affonda le radici nella filosofia originaria di Claude. Un modello progettato per avere paletti interni entra inevitabilmente in frizione quando un governo chiede di rimuoverli o attenuarli per usi militari avanzati.

L’esito di questa controversia deciderà non solo il destino di Anthropic e di Claude, ma stabilirà certamente un precedente su chi comanda davvero. Le aziende che costruiscono l’intelligenza artificiale o i governi che vogliono usarla. Quando uno Stato tira fuori una legge degli anni Cinquanta per costringere un’azienda privata a consegnare la sua tecnologia senza limiti, sta dicendo una cosa sola: vogliamo uno strumento, non un partner…

PREVIOUS

La resurrezione digitale è già qui. Ma chi controlla la nostra identità dopo la morte?
Related Post
Luglio 28, 2020
Edifici a zero emissioni
Dicembre 10, 2020
Amazzonia: distrutto un territorio grande quanto la Spagna
Aprile 4, 2025
Sardegna 100% green? Scenario possibile entro il 2030
Settembre 8, 2019
Né vegani né carnivori: arrivano i climatariani
Comments are closed.

TERRA FUTURA

Il Blog di Beppe Grillo
Il Pentagono contro Claude. Quando lo stato vuole togliere l’etica all’IA
Il Blog di Beppe Grillo
La resurrezione digitale è già qui. Ma chi controlla la nostra identità dopo la morte?
Il Blog di Beppe Grillo
414 persone senza dimora morte nel 2025: Housing First, la casa per prima
Il Blog di Beppe Grillo
Sotto la neve, il cemento. L’impatto ambientale dei giochi invernali
Il Blog di Beppe Grillo
Influencer perde 140mila follower per un errore del filtro: la perfezione digitale come standard
Il Blog di Beppe Grillo
Il futuro del petrolio si chiama plastica
Il Blog di Beppe Grillo
Smokefree generation, il Regno Unito punta a una generazione senza sigarette
Il Blog di Beppe Grillo

CONTATTI

Per inviare messaggi, comunicati stampa, segnalazioni, richieste di interviste, denunce o lettere aperte a Beppe Grillo: [email protected]

PUBBLICITA'

Per la tua pubblicità su questo Blog: [email protected]
  • HOMEPAGE
  • COOKIE POLICY
  • PRIVACY POLICY
  • CONTATTI
© Copyright 2025 - Il Blog di Beppe Grillo. All Rights Reserved - Powered by happygrafic.com