Libero
TECH NEWS

Pentagono vs AI: i dipendenti di Google e OpenAi si schierano con Anthropic

C’è una nuova evoluzione nella diatriba che vede al centro Anthropic, il Pentagono e l’uso etico dell’intelligenza artificiale.

Pubblicato:

Schermo smartphone con app AI iStock

Un gruppo di dipendenti di Google DeepMind e OpenAI ha deciso di sostenere pubblicamente Anthropic nello scontro legale con il Pentagono. Al centro della vicenda c’è il rifiuto dell’azienda che sviluppa il chatbot Claude di consentire l’uso dei propri modelli di intelligenza artificiale per programmi militari sensibili. La decisione del Dipartimento della Difesa di classificare Anthropic come rischio per la sicurezza della catena di approvvigionamento ha innescato una battaglia legale che ora coinvolge anche parte della comunità scientifica e tecnologica.

Lo scontro tra Anthropic e il Pentagono

La vicenda nasce da una divergenza profonda su come debba essere utilizzata l’intelligenza artificiale.

Anthropic, società statunitense nota per aver sviluppato il sistema AI Claude, ha rifiutato alcune richieste provenienti dal Dipartimento della Difesa degli Stati Uniti.

Secondo quanto emerso dai documenti legali, il Pentagono avrebbe chiesto la possibilità di utilizzare modelli di AI anche in contesti legati alla sorveglianza su larga scala e allo sviluppo di sistemi autonomi in ambito militare.

Anthropic ha scelto di non rimuovere alcune limitazioni etiche già integrate nei propri modelli.

La risposta dell’amministrazione statunitense non si è fatta attendere. Il Pentagono ha inserito l’azienda tra i soggetti considerati un rischio per la sicurezza della catena di approvvigionamento, una classificazione che negli Stati Uniti viene generalmente applicata a entità ritenute potenzialmente pericolose per la sicurezza nazionale.

Per Anthropic si tratta di una misura ingiustificata. L’azienda sostiene che la decisione sia una forma di pressione legata proprio alla sua posizione sull’uso dell’intelligenza artificiale in ambito militare.

Il sostegno dei dipendenti di Google DeepMind e OpenAI

A rendere la vicenda ancora più interessante è l’intervento di alcuni ricercatori e ingegneri che lavorano nelle principali aziende del settore.

Oltre trenta dipendenti di OpenAI e Google DeepMind hanno firmato un documento legale a sostegno di Anthropic.

Tra i nomi citati nei documenti depositati in tribunale compare anche Jeff Dean, figura di primo piano nella ricerca sull’intelligenza artificiale e responsabile scientifico di Google DeepMind.

Nel testo presentato alla corte i firmatari criticano la scelta del governo statunitense, definendola un uso arbitrario del potere pubblico. Secondo la loro interpretazione, se il Dipartimento della Difesa non fosse stato soddisfatto delle condizioni contrattuali proposte da Anthropic avrebbe potuto interrompere l’accordo e rivolgersi a un altro fornitore di tecnologie AI.

La classificazione come rischio per la sicurezza viene invece vista come una misura punitiva che potrebbe avere conseguenze sull’intero ecosistema tecnologico.

Il nodo dell’intelligenza artificiale militare

La questione solleva un tema che da tempo divide la Silicon Valley: il ruolo dell’intelligenza artificiale nei programmi militari.

Negli ultimi anni molte aziende tecnologiche hanno iniziato a introdurre regole interne sull’utilizzo dei propri modelli. Alcune limitano esplicitamente applicazioni legate alla sorveglianza o allo sviluppo di armi autonome. Altre preferiscono valutare caso per caso.

Nel documento presentato dai dipendenti delle due aziende viene sottolineato un punto cruciale. In assenza di una normativa pubblica chiara sull’uso dell’intelligenza artificiale, spesso sono proprio le aziende a stabilire limiti tecnici o contrattuali per evitare applicazioni considerate pericolose.

Se una società venisse penalizzata per aver imposto queste restrizioni, sostengono i firmatari, si rischierebbe di creare un precedente che potrebbe scoraggiare altre aziende dal fare lo stesso.

Una vicenda che riguarda tutto il settore AI

Anthropic ha già avviato due azioni legali contro il Dipartimento della Difesa e altre agenzie federali per contestare la decisione e ottenere la revoca della classificazione.

La vicenda è diventata ancora più delicata dopo che, secondo quanto riportato nei documenti legali, il Pentagono avrebbe firmato un accordo con OpenAI poco tempo dopo aver preso posizione contro Anthropic.

Questo passaggio ha alimentato discussioni anche all’interno della stessa OpenAI, dove alcuni dipendenti hanno espresso preoccupazione per l’impatto che una scelta del genere potrebbe avere sul dibattito interno all’industria.

Per molti osservatori non si tratta soltanto di una controversia tra un’azienda tecnologica e il governo degli Stati Uniti. Il caso Anthropic potrebbe diventare un precedente importante nel definire come verranno gestiti in futuro i rapporti tra istituzioni pubbliche, industria dell’intelligenza artificiale e limiti etici nello sviluppo delle tecnologie più avanzate.