Il Dipartimento della Difesa degli Stati Uniti sta esercitando forti pressioni su Anthropic affinché renda disponibili i propri sistemi di intelligenza artificiale senza limitazioni per impieghi militari e di sorveglianza. Secondo fonti riportate dalla stampa statunitense, il segretario alla Difesa Pete Hegseth avrebbe imposto una scadenza ravvicinata per ottenere l’assenso dell’azienda, minacciando in caso contrario la revoca dei contratti governativi.
La richiesta riflette la volontà del Pentagono di integrare rapidamente l’AI nei programmi di difesa, mentre Anthropic continua a chiedere garanzie sull’impiego dei propri sistemi, in particolare per evitare utilizzi legati ad azioni letali o a programmi di sorveglianza di massa.
Il ruolo strategico dell’AI nei contratti militari
Anthropic, nota per il chatbot Claude, è tra le poche società autorizzate a gestire documenti sensibili legati alla sicurezza nazionale. Le sue tecnologie sono già integrate nei servizi di diversi fornitori dell’esercito statunitense, e i contratti con la difesa valgono centinaia di milioni di dollari.
All’interno dell’azienda, però, cresce il malcontento per l’uso delle tecnologie in ambito militare. Il CEO Dario Amodei ha più volte ribadito la volontà di distinguersi nel settore per un approccio prudente allo sviluppo dell’AI, sottolineando la necessità di limitazioni etiche e di sicurezza. In diverse occasioni ha escluso esplicitamente la disponibilità a consentire utilizzi in operazioni che possano causare vittime o in sistemi di sorveglianza su larga scala.
Le opzioni sul tavolo del governo
Secondo le indiscrezioni, Hegseth starebbe valutando due possibili contromisure.
La prima sarebbe classificare Anthropic come fornitore a rischio per la sicurezza nazionale, una misura che potrebbe escluderla dai programmi federali e obbligare numerosi partner della difesa a interrompere ogni collaborazione tecnologica con l’azienda.
La seconda ipotesi prevede invece l’attivazione del Defense Production Act, norma utilizzata nelle emergenze nazionali per imporre alle aziende la fornitura di beni o servizi strategici. In questo caso il governo potrebbe costringere Anthropic a collaborare, ma la decisione aprirebbe probabilmente a contenziosi legali.
Un funzionario citato dal Wall Street Journal ha indicato una scadenza precisa per la risposta dell’azienda, anche se non è chiaro quando verrebbero eventualmente adottate le misure minacciate.
Un contesto politico e industriale più ampio
Fondata nel 2021 da ex dipendenti di OpenAI, Anthropic ha cercato fin dall’inizio di posizionarsi come attore più prudente nello sviluppo dell’intelligenza artificiale rispetto ad altri colossi del settore, come Alphabet.
Parallelamente, il Pentagono ha avviato accordi con altri fornitori tecnologici per diversificare le proprie fonti di AI. Tra questi figura anche xAI, la società di Elon Musk, recentemente integrata con SpaceX. Il suo chatbot Grok non sarà utilizzato nei contesti più sensibili, ma verrà integrato in alcune piattaforme militari.
Grok è inoltre oggetto di verifiche da parte della Commissione Europea, dopo polemiche legate a funzionalità e risposte giudicate problematiche.










