- Published on
Pentagono vs Anthropic: perche Claude rischia lo stop nei sistemi militari USA (stato al 23 febbraio 2026)
- Authors

- Name
- Alessandro Iannacone
Negli ultimi giorni e circolata una notizia forte: il Pentagono non vorrebbe piu usare Claude, il modello AI di Anthropic. La formulazione piu precisa, oggi, e questa: il Dipartimento della Difesa sta valutando un taglio dei rapporti, ma non risulta ancora uno stop definitivo gia formalizzato.
Secondo le ricostruzioni pubbliche, il nodo non e tecnico ma di governance: il Pentagono chiede uso AI per "all lawful purposes", mentre Anthropic vuole mantenere limiti su due aree sensibili:
- sorveglianza di massa interna
- armi completamente autonome
Cosa sappiamo con certezza (timeline)
- 14 febbraio 2026: Axios riporta che il Pentagono considera un distacco da Anthropic dopo negoziati tesi sui limiti d uso di Claude.
- 16 febbraio 2026: Axios parla dell ipotesi di designare Anthropic come supply chain risk, misura molto severa nel contesto procurement difesa.
- 19 febbraio 2026: nuovo approfondimento Axios: lo scontro con Anthropic influenza anche le trattative con OpenAI, Google e xAI.
- 22 febbraio 2026: Washington Post descrive la frizione strategica tra approccio operativo del Pentagono e guardrail dell azienda.
Cosa non e ancora confermato
Al 23 febbraio 2026, dalle informazioni pubbliche disponibili non emerge un annuncio ufficiale di "ban totale" gia esecutivo. In altre parole: la minaccia e concreta, il confronto e duro, ma il quadro appare ancora in evoluzione.
Questa distinzione e importante per evitare titoli fuorvianti:
- non e solo "discussione teorica"
- non e ancora "rottura definitiva completata"
Perche il caso Anthropic e strategico
Il tema va oltre un singolo contratto. Riguarda tre equilibri che peseranno su tutta l AI militare:
- Controllo dei limiti: decide il governo cliente o il fornitore del modello?
- Responsabilita operativa: chi risponde quando un modello e usato in contesti ad alta letalita?
- Standard di mercato: se il Pentagono impone l uso senza guardrail, gli altri vendor seguiranno la stessa linea.
Nel breve periodo, un eventuale disaccoppiamento da Claude sarebbe anche complesso da gestire: diverse fonti indicano che Claude e gia integrato in flussi sensibili e sostituirlo rapidamente non sarebbe indolore.
Impatto pratico per aziende e team tech
Se l opzione "supply chain risk" venisse davvero applicata, l impatto potrebbe uscire dal perimetro Pentagono e toccare anche partner e fornitori indiretti. Per chi lavora su AI enterprise o defense-adjacent, la lezione e chiara:
- servono policy d uso tracciabili e verificabili
- i contratti AI devono prevedere scenari di fallback modello
- la compliance non e piu separabile dalle scelte architetturali
Conclusione
La notizia corretta, oggi, non e "il Pentagono ha gia smesso di usare Claude". La notizia corretta e: Washington sta alzando la pressione su Anthropic e valuta misure drastiche se i limiti d uso non convergono con le richieste militari.
E un passaggio chiave: da qui in avanti, ogni accordo tra governi e AI lab sara anche una negoziazione politica su dove finiscono i guardrail.
Fonti
- Axios - Pentagon threatens to cut off Anthropic in AI safeguards dispute (14 febbraio 2026)
- Axios - Pentagon threatens Anthropic punishment (16 febbraio 2026)
- Axios - Pentagon-Anthropic battle pushes other AI labs into major dilemma (19 febbraio 2026)
- Washington Post - After a deadly raid, an AI power struggle erupts at the Pentagon (22 febbraio 2026)
- Reuters (ripreso da Yahoo) - Pentagon threatens to cut off Anthropic in AI safeguards dispute