Libero
TECH NEWS

Anthropic fuori dal Pentagono, che si rivolge a OpenAI: la disputa tra AI e governo USA

Donald Trump ha ordinato alle agenzie federali di interrompere l’utilizzo di Anthropic: la disputa favorirà definitivamente OpenAI?

Pubblicato:

Anthropic e il Pentagono iStock

La rottura tra il governo degli Stati Uniti e Anthropic segna uno dei momenti più delicati nel rapporto tra intelligenza artificiale e difesa militare. Dopo settimane di tensioni, il Pentagono ha deciso di escludere l’azienda dai contratti legati alla sicurezza nazionale, aprendo di fatto la strada a OpenAI. Dietro questa scelta c’è uno scontro su limiti, etica e utilizzo militare dei modelli di AI, che sta ridisegnando gli equilibri tecnologici nel settore della difesa americana.

Lo strappo tra Anthropic e il Pentagono

Il punto di rottura è arrivato quando il Dipartimento della Difesa degli Stati Uniti ha classificato Anthropic come “rischio per la catena di approvvigionamento”. Una definizione che, nel linguaggio delle istituzioni americane, significa una cosa precisa: i partner del Pentagono non possono più collaborare con l’azienda.

La decisione è arrivata dopo uno scontro diretto tra il segretario alla Difesa, Pete Hegseth, e il CEO di Anthropic, Dario Amodei. Al centro della disputa c’era la richiesta del governo statunitense di poter utilizzare i sistemi di intelligenza artificiale dell’azienda senza particolari restrizioni per applicazioni legate alla sicurezza nazionale.

Anthropic ha rifiutato di rimuovere alcuni limiti inseriti nei propri modelli. In particolare, l’azienda non voleva che la propria tecnologia venisse utilizzata per sorvegliare in massa i cittadini americani o per sviluppare sistemi d’arma completamente autonomi.

Secondo quanto riportato da diverse ricostruzioni giornalistiche, il Pentagono aveva concesso un ultimatum. Poco prima della scadenza, però, l’amministrazione guidata da Donald Trump ha ordinato alle agenzie federali di interrompere l’utilizzo degli strumenti dell’azienda, formalizzando di fatto la rottura.

Perché l’AI è diventata cruciale per l’esercito USA

La vicenda mostra quanto l’AI in ambito militare negli Stati Uniti sia ormai centrale nelle operazioni strategiche.

Negli ultimi anni il Pentagono ha accelerato l’adozione di sistemi basati su intelligenza artificiale per analizzare dati, supportare la pianificazione e individuare obiettivi.

Uno degli esempi citati nelle ricostruzioni giornalistiche riguarda l’integrazione dei modelli di Anthropic con il sistema Maven sviluppato da Palantir. In questo contesto le piattaforme AI vengono utilizzate per elaborare grandi quantità di informazioni e suggerire possibili bersagli durante le operazioni militari.

Secondo un’inchiesta del Washington Post, tali strumenti possono arrivare a generare centinaia di possibili obiettivi, assegnare priorità operative e fornire coordinate geografiche utili alla pianificazione degli attacchi.

Si tratta di applicazioni che dimostrano quanto la tecnologia stia diventando parte integrante delle infrastrutture militari. Non sorprende, quindi, che il governo americano consideri le aziende di AI partner strategici.

Via libera a OpenAI?

L’uscita di scena di Anthropic ha aperto immediatamente un vuoto nel rapporto tra industria tecnologica e difesa. Uno spazio che OpenAI si è affrettata a occupare.

Nei giorni successivi alla rottura tra Anthropic e il Pentagono, l’azienda guidata da Sam Altman ha raggiunto un accordo per consentire l’implementazione dei propri modelli di intelligenza artificiale all’interno della rete riservata del Dipartimento della Difesa.

Tuttavia, lo stesso Altman ha però ammesso pubblicamente che la comunicazione sull’intesa è stata gestita con troppa fretta. In un messaggio pubblicato sul social X ha spiegato che la società sta lavorando con il Pentagono per chiarire alcuni principi fondamentali, tra cui il divieto di utilizzare l’AI per la sorveglianza interna dei cittadini americani.

OpenAI ha anche specificato che la propria tecnologia non dovrà diventare uno strumento diretto delle agenzie di intelligence per monitorare la popolazione.

Una competizione che va oltre le aziende

La rivalità tra Anthropic e OpenAI non nasce oggi. Le due società rappresentano approcci diversi allo sviluppo dell’intelligenza artificiale.

Anthropic, creatrice di Claude, ha costruito la propria reputazione puntando su modelli con forti limitazioni etiche e meccanismi di sicurezza pensati per evitare usi potenzialmente pericolosi. OpenAI, pur dichiarando principi simili, ha scelto una strategia più pragmatica nel rapporto con governi e istituzioni.

Lo scontro con il Pentagono ha trasformato questa differenza di visione in una vera disputa pubblica.

Nel frattempo il settore della difesa statunitense si sta già riorganizzando. Alcuni grandi appaltatori militari, tra cui Lockheed Martin, stanno valutando soluzioni alternative, mentre startup e aziende tecnologiche cercano di occupare lo spazio lasciato libero.

La vicenda dimostra che la competizione sull’intelligenza artificiale non riguarda solo il mercato tecnologico, ma anche gli equilibri geopolitici. E ciò che accade oggi tra Anthropic, OpenAI e il Pentagono potrebbe influenzare il modo in cui l’AI verrà utilizzata nelle operazioni militari dei prossimi anni.