La rottura del 27 febbraio 2026 tra Anthropic e il Governo degli Stati Uniti segna il definitivo fallimento della convivenza tra etica privata e sicurezza nazionale nell’ecosistema dell’innovazione Big Tech. Gli USA militarizzano l’IA, subordinando la sicurezza alla supremazia bellica.
Indice degli argomenti
Le due “Linee Rosse” di Amodei
Fino a pochi giorni fa, Anthropic era un partner importante per il Pentagono.
Claude è stato utilizzato per l’analisi di intelligence, la pianificazione di missioni, la simulazione di scenari bellici e operazioni cyber. In particolare, il Pentagono ha utilizzato Claude per supportare l’operazione di cattura del leader venezuelano Nicolás Maduro e, più recentemente, per valutazioni di intelligence e identificazione di obiettivi durante gli attacchi aerei in Iran.
In un’intervista rilasciata da Dario Amodei, CEO di Anthropic, alla testata CBS News, è spiegato il rifiuto dell’azienda di concedere al Pentagono l’uso illimitato dell’IA Claude.
Dario Amodei spiega che Anthropic collabora con il governo per il 99% dei casi d’uso (cyber-security, supporto logistico, ecc.), ma ha posto due veti precisi:
- Sorveglianza di massa interna – Il rifiuto di trasformare l’IA in uno strumento di controllo pervasivo sui cittadini americani, ritenendo tale uso una violazione dei diritti civili fondamentali e della fiducia stessa su cui si fonda la Constitutional AI. ” Ci preoccupa che con l’IA diventino possibili cose che prima non lo erano. Un esempio è il governo che acquista dati bulk da aziende private su posizioni, informazioni personali o affiliazioni politiche degli americani per analizzarli in massa tramite l’IA. Questo non è illegale, semplicemente non era utile prima dell’era dell’IA. La tecnologia sta correndo più veloce delle leggi.”
- Armi completamente autonome – Amodei ha tracciato una distinzione netta tra le armi “parzialmente autonome” già impiegate nei conflitti moderni (come in Ucraina) — dove l’uomo resta nel loop decisionale — e la richiesta del Pentagono di integrare Claude 4 in sciami di droni capaci di decidere autonomamente l’ingaggio letale. “Non si tratta delle armi parzialmente autonome usate oggi in Ucraina o potenzialmente a Taiwan. È l’idea di creare armi che sparano senza alcun coinvolgimento umano. I sistemi di IA di oggi non sono neanche lontanamente abbastanza affidabili per questo; c’è un’imprevedibilità di fondo che non abbiamo ancora risolto tecnicamente.” “Affidare decisioni di vita o di morte a una macchina non ancora perfetta è un rischio inaccettabile.”
Lo scontro con il Pentagono
Il Pentagono ha chiesto di togliere queste due linee rosse, dando ad Anthropic (solo!) 3 giorni per accettare i termini senza restrizioni, minacciando altrimenti di bloccare i contratti.
Anthopic ha rifiutato.
Come risposta, il Segretario della Difesa Pete Hegseth ha designato Anthropic come “Supply Chain Risk Designation” rischio per la catena di approvvigionamento, mettendola nella Entity List, la lista nera commerciale gestita dal Bureau of Industry and Security (BIS), un’agenzia che fa capo al Dipartimento del Commercio degli Stati Uniti.
Questa misura è uno dei principali strumenti di politica estera e sicurezza nazionale utilizzati dagli USA per controllare l’esportazione di tecnologie sensibili. Storicamente, è stata riservata ad aziende straniere considerate ostili o sotto l’influenza di governi avversari, come per esempio alcuni fornitori di chip cinesi. È la prima volta che viene applicata a un’azienda americana di queste dimensioni.
Il governo accusa Anthropic di “mettere a rischio la sicurezza nazionale” e la vita dei soldati americani rifiutando di rimuovere i limiti etici all’uso di Claude: l’indipendenza dell’IA finisce dove inizia la necessità della supremazia bellica.
L’amministrazione sostiene che le restrizioni di Anthropic creino uno svantaggio competitivo rispetto ad avversari come Cina e Russia e che l’azienda stia esercitando un potere decisionale che spetterebbe solo alle autorità democraticamente elette e ai vertici militari.
La reazione di Anthropic
L’inserimento nella lista nera porta all’ esclusione dai contratti governativi e federali e costringe le agenzie governative a iniziare un processo di rimozione del software Antropic. Amodei ha dichiarato che Anthropic garantirà comunque la continuità del servizio per il tempo necessario a passare a un concorrente (che accetti i termini del Pentagono), per evitare buchi operativi che danneggerebbero la sicurezza del Paese.
Nonostante tutto Amodei si dice fiducioso:
- Sostiene che l’impatto legale della designazione sia più limitato di quanto dichiarato dai tweet
- Dichiara che Anthropic impugnerà ogni azione formale in tribunale una volta ricevuta documentazione ufficiale (finora basata solo su comunicazioni via social)
La Reazione delle Big Tech USA
L’isolamento di Anthropic ha ridisegnato istantaneamente la gerarchia della Silicon Valley, spostando l’asse dall’eccellenza tecnica alla fedeltà geopolitica:
- OpenAI ha scelto la via del pragmatismo strategico, posizionando OpenAI come il “campione nazionale”. Accettando l’integrazione di protocolli di sicurezza nazionale nei futuri modelli GPT, Altman si è assicurato l’appoggio del Governo per la costruzione di nuove infrastrutture energetiche e computazionali.
- Microsoft e Google hanno accelerato l’occupazione degli spazi lasciati vuoti da Anthropic. Microsoft ha lanciato “Azure Defense AI”, una partizione del cloud isolata e dedicata esclusivamente alle agenzie federali, mentre Google DeepMind ha scisso i team civili da quelli “dual-use” per garantire una linea diretta di sviluppo al Pentagono.
- Meta ha promosso Llama come strumento di influenza globale, pur sapendo che le versioni modificate sono già ampiamente utilizzate da contractor militari privati, consolidando la dipendenza globale dagli standard tecnologici statunitensi.
La reazione degli utenti: Anthropic al primo posto
L’app Claude di Anthropic in pochissimi giorni ha scalato la classifica e ha raggiunto la posizione N. 1 delle app gratuite dell’App Store negli Stati Uniti, superando per la prima volta stabilmente ChatGPT.
Si è verificato un fenomeno di migrazione di massa da OpenAI verso Anthropic. Molti utenti hanno percepito la scelta di OpenAI di accettare i termini del Pentagono (precedentemente rifiutati da Anthropic) come un “compromesso morale”.
Sui social media (X e Reddit) sono diventati virali hashtag che invitavano a cancellare l’abbonamento a ChatGPT a favore di Claude Pro.
Così, mentre OpenAI ha iniziato a testare una versione supportata dalla pubblicità per contenere i costi, Anthropic ha utilizzato lo scontro con la Difesa per rafforzare la sua immagine di “AI Costituzionale”, con un posizionamento Premium & Ad-Free. Per cavalcare l’onda, Anthropic ha reso gratuito il suo nuovo tool di importazione dati, permettendo agli utenti di trasferire tutta la cronologia delle chat da altri modelli a Claude con un solo clic, senza perdere il contesto.
Claude viene ora visto dal pubblico B2C come un “baluardo di privacy” che preferisce perdere contratti miliardari piuttosto che implementare funzioni di sorveglianza di massa. Anche il segmento B2B sembra apprezzare, vedendo la scelta di Anthropic come fattore di fiducia per l’inserimento di dati aziendali sensibili.
Come ha dichiarato Amodei “Dissentire dal governo è la cosa più americana del mondo. Siamo patrioti e abbiamo difeso i valori di questo Paese.”
Cosa sarebbe successo in Europa
L’ elemento fondamentale è l’AI Act: l’Articolo 2 stabilisce che l’AI Act non si applica ai sistemi di intelligenza artificiale sviluppati o utilizzati esclusivamente per scopi militari, di difesa o di sicurezza nazionale.
Si tratta di un’esenzione totale: se una startup europea (come la francese Mistral o la tedesca Aleph Alpha) stipulasse un contratto con un Ministero della Difesa europeo per un modello Claude-like da usare in operazioni militari, quel sistema non sarebbe soggetto ai vincoli di trasparenza, audit o classificazione “ad alto rischio” previsti per il mercato civile.
Aziende di difesa e governi avrebbero la libertà legale di negoziare termini che ignorano le protezioni civili, proprio come richiesto dal Pentagono ad Anthropic.
Mentre negli Stati Uniti esiste un unico interlocutore (il Dipartimento della Difesa), in Europa la difesa è una competenza sovrana dei singoli Stati membri, quindi non avremmo “un caso Anthropic”, ma potenzialmente 27 casi diversi. Un’azienda AI europea potrebbe rifiutarsi di collaborare con il governo francese su certi parametri etici, mentre accetta quelli del governo tedesco, o viceversa.
Il vero “caso Anthropic” europeo oggi non riguarderebbe un’azienda europea, ma la dipendenza dalle aziende americane. Se l’Europa decidesse di integrare modelli USA (come Claude o GPT) nelle proprie infrastrutture critiche o militari, si troverebbe vulnerabile a decisioni unilaterali del governo USA (che può imporre il bando).
Tuttavia, sebbene la difesa sia esclusa, l’AI Act promuove standard di “sovranità tecnologica”. Questo dovrebbe spingere l’Europa verso lo sviluppo di modelli “Open Source” o “Sovereign” dove il controllo del codice è totale, minimizzando il rischio di un “blackout” etico o politico imposto dal fornitore.


















