1

Scontro tra Anthropic e i vertici USA: il Pentagono vieta Claude nei progetti militari

Il Pentagono designa Anthropic come rischio per la supply chain dopo che una nota del CEO Amodei aveva fatto infuriare Trump nei giorni scorsi: ora i contractor non potranno usare Claude nei progetti militari.

NOTIZIA di Raffaele Staccini   —   06/03/2026
Anthropic vs Trump

Il Dipartimento della Difesa degli Stati Uniti ha classificato la società di IA Anthropic come rischio per la supply chain nei programmi militari. La decisione, entrata in vigore immediatamente, limita l'utilizzo delle tecnologie dell'azienda nei contratti legati alle attività del Pentagono.

La misura riguarda in particolare l'impiego del modello linguistico Claude nei progetti sviluppati per il Dipartimento della Difesa. I contractor governativi non potranno più integrare il sistema nelle applicazioni destinate alle operazioni militari. La designazione non equivale però a un divieto totale. Le aziende potranno continuare a utilizzare Claude in altri progetti non collegati direttamente alle attività del Pentagono.

Lo scontro tra Anthropic e il Pentagono

La conferma è arrivata direttamente da Anthropic. L'amministratore delegato Dario Amodei ha spiegato che la classificazione ha un ambito limitato e riguarda esclusivamente i contratti con il Dipartimento della Difesa. "Si applica chiaramente solo all'uso di Claude come parte diretta di contratti con il Dipartimento della Difesa, non a tutti gli utilizzi da parte di aziende che collaborano con il governo", ha dichiarato Amodei. Secondo il CEO, l'azienda intende contestare la decisione in tribunale.

Dario Amodei, CEO di Anthropic
Dario Amodei, CEO di Anthropic

La misura arriva dopo mesi di tensioni tra Anthropic e il Pentagono. Il nodo principale riguarda le regole di sicurezza introdotte dall'azienda sull'uso della propria IA in ambito militare. Anthropic ha stabilito limiti espliciti, tra cui il divieto di utilizzare i suoi modelli per armi autonome o sistemi di sorveglianza di massa. Il Dipartimento della Difesa ha invece sostenuto che le forze armate dovrebbero poter utilizzare queste tecnologie in modo più ampio, purché nel rispetto delle leggi statunitensi. Il confronto tra le due parti si è intensificato negli ultimi mesi, fino alla decisione ufficiale di classificare l'azienda come rischio nella catena di approvvigionamento.

ChatGPT usato per armi autonome e controllo di massa? Infuria il dibattito etico sull'uso militare delle IA ChatGPT usato per armi autonome e controllo di massa? Infuria il dibattito etico sull'uso militare delle IA

In una nota privata resa pubblica nei giorni scorsi, Amodei avrebbe riferito ai suoi dipendenti che il motivo per cui l'azienda era in cattivi rapporti con l'amministrazione Trump risiedeva nel fatto di non aver rivolto al Presidente Trump "elogi in stile dittatoriale", al contrario di quanto avrebbe fatto OpenAI con Sam Altman.

Secondo una fonte citata da Reuters, la tecnologia di Anthropic sarebbe stata utilizzata anche per supportare alcune operazioni militari, inclusa l'analisi di informazioni di intelligence e attività di pianificazione operativa legate al contesto in Iran.

Nonostante la designazione, diversi partner tecnologici continueranno a collaborare con l'azienda al di fuori dei progetti militari. Un portavoce di Microsoft ha dichiarato che i prodotti Anthropic resteranno disponibili per i clienti attraverso piattaforme come Microsoft 365, GitHub e Azure AI Foundry, ad eccezione delle applicazioni legate alla difesa. Tra gli investitori della società figura anche Amazon, mentre alcune piattaforme utilizzate in ambito militare, come Maven Smart System di Palantir, avrebbero già integrato flussi di lavoro basati sul codice di Claude.