Published on

Pentagono vs Anthropic: perche Claude rischia lo stop nei sistemi militari USA (stato al 23 febbraio 2026)

Authors
  • avatar
    Name
    Alessandro Iannacone
    Twitter

Negli ultimi giorni e circolata una notizia forte: il Pentagono non vorrebbe piu usare Claude, il modello AI di Anthropic. La formulazione piu precisa, oggi, e questa: il Dipartimento della Difesa sta valutando un taglio dei rapporti, ma non risulta ancora uno stop definitivo gia formalizzato.

Secondo le ricostruzioni pubbliche, il nodo non e tecnico ma di governance: il Pentagono chiede uso AI per "all lawful purposes", mentre Anthropic vuole mantenere limiti su due aree sensibili:

  • sorveglianza di massa interna
  • armi completamente autonome

Cosa sappiamo con certezza (timeline)

  • 14 febbraio 2026: Axios riporta che il Pentagono considera un distacco da Anthropic dopo negoziati tesi sui limiti d uso di Claude.
  • 16 febbraio 2026: Axios parla dell ipotesi di designare Anthropic come supply chain risk, misura molto severa nel contesto procurement difesa.
  • 19 febbraio 2026: nuovo approfondimento Axios: lo scontro con Anthropic influenza anche le trattative con OpenAI, Google e xAI.
  • 22 febbraio 2026: Washington Post descrive la frizione strategica tra approccio operativo del Pentagono e guardrail dell azienda.

Cosa non e ancora confermato

Al 23 febbraio 2026, dalle informazioni pubbliche disponibili non emerge un annuncio ufficiale di "ban totale" gia esecutivo. In altre parole: la minaccia e concreta, il confronto e duro, ma il quadro appare ancora in evoluzione.

Questa distinzione e importante per evitare titoli fuorvianti:

  • non e solo "discussione teorica"
  • non e ancora "rottura definitiva completata"

Perche il caso Anthropic e strategico

Il tema va oltre un singolo contratto. Riguarda tre equilibri che peseranno su tutta l AI militare:

  1. Controllo dei limiti: decide il governo cliente o il fornitore del modello?
  2. Responsabilita operativa: chi risponde quando un modello e usato in contesti ad alta letalita?
  3. Standard di mercato: se il Pentagono impone l uso senza guardrail, gli altri vendor seguiranno la stessa linea.

Nel breve periodo, un eventuale disaccoppiamento da Claude sarebbe anche complesso da gestire: diverse fonti indicano che Claude e gia integrato in flussi sensibili e sostituirlo rapidamente non sarebbe indolore.


Impatto pratico per aziende e team tech

Se l opzione "supply chain risk" venisse davvero applicata, l impatto potrebbe uscire dal perimetro Pentagono e toccare anche partner e fornitori indiretti. Per chi lavora su AI enterprise o defense-adjacent, la lezione e chiara:

  • servono policy d uso tracciabili e verificabili
  • i contratti AI devono prevedere scenari di fallback modello
  • la compliance non e piu separabile dalle scelte architetturali

Conclusione

La notizia corretta, oggi, non e "il Pentagono ha gia smesso di usare Claude". La notizia corretta e: Washington sta alzando la pressione su Anthropic e valuta misure drastiche se i limiti d uso non convergono con le richieste militari.

E un passaggio chiave: da qui in avanti, ogni accordo tra governi e AI lab sara anche una negoziazione politica su dove finiscono i guardrail.


Fonti