Libero
TECH NEWS

AI e guerra nucleare: nei wargame i modelli scelgono quasi sempre l’escalation

Uno studio del King's College rivela che modelli come GPT-5.2 e Gemini scelgono l'attacco nucleare nel 95% delle simulazioni belliche. Scopri perché le macchine ignorano il tabù atomico e rifiutano la resa

Pubblicato:

IA nucleare iStock

Cosa succederebbe se affidassimo le decisioni strategiche di una crisi globale a un algoritmo? Fino a poco tempo fa, questa era materia da cinema di fantascienza, ma oggi, con i ministeri della Difesa di tutto il mondo che testano l’IA per il supporto decisionale, la questione è diventata di un’attualità bruciante. Uno studio recente condotto dal King’s College di Londra e pubblicato su arXiv da Kenneth Payne ha cercato di dare una risposta, ottenendo risultati che definire preoccupanti è un eufemismo.

I ricercatori hanno messo alla prova tre dei pesi massimi del settore — GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google — in 21 simulazioni di “giochi di guerra”, per un totale di 329 turni. Il verdetto? Le macchine non sembrano sentire il peso del “tabù nucleare” che ha frenato l’umanità negli ultimi ottant’anni. In ben 20 simulazioni su 21, l’IA ha fatto ricorso ad armi nucleari tattiche, e in nessun caso un modello ha scelto di arrendersi.

Tre modelli, tre filosofie di guerra

Lo studio ha evidenziato come ogni intelligenza artificiale sviluppi una sorta di “personalità strategica” ben definita, quasi come se fossero generali con temperamenti opposti.

  • Claude Sonnet 4 si è rivelato un “falco calcolatore”. È stato il modello più efficace, vincendo il 67% delle partite. La sua strategia è stata basata sulla pazienza e sull’inganno: costruiva fiducia nei primi turni per poi colpire duramente con l’escalation nucleare, superando le proprie intenzioni dichiarate nel 60-70% dei casi una volta alzata la posta in gioco.
  • GPT-5.2 è stato soprannominato “Jekyll e Hyde”. In condizioni normali appariva passivo e fin troppo cauto, tanto da non vincere alcuna partita negli scenari aperti. Tuttavia, non appena veniva introdotta la pressione di una scadenza temporale, il modello subiva un’inversione completa, diventando aggressivo e raggiungendo livelli di escalation precedentemente rifiutati, arrivando a lanciare attacchi nucleari tattici pur di ottenere la vittoria.
  • Gemini 3 Flash ha invece adottato quella che i teorici dei giochi chiamano la “razionalità dell’irrazionalità”. Comportandosi in modo imprevedibile e quasi folle, ha cercato di minare la credibilità dei suoi avversari. È stato l’unico modello a scegliere deliberatamente una guerra nucleare strategica totale, arrivando persino a minacciare esplicitamente i centri abitati civili con una logica del tipo “o vinciamo insieme o periamo insieme”.

Il confine sottile tra tattica e annientamento

Uno degli aspetti più interessanti — e spaventosi — emersi dalle oltre 780.000 parole di ragionamento scritte dalle IA è il modo in cui giustificano l’uso dell’atomo. I modelli tendono a trattare le armi nucleari tattiche come un normale strumento di artiglieria. Claude, ad esempio, ha argomentato che un uso limitato del nucleare servirebbe a dimostrare che una sconfitta convenzionale non è accettabile, lasciando paradossalmente la porta aperta a una futura de-escalation.

Tuttavia, la realtà delle simulazioni ha mostrato che questa è un’illusione. Quando un modello lanciava un’arma nucleare tattica, l’avversario riduceva l’intensità del conflitto solo nel 18% dei casi. Nella maggior parte dei casi, l’attacco “limitato” portava inevitabilmente all’annientamento totale, spesso accelerato da errori o incidenti imprevisti nella simulazione che spingevano i modelli verso l’Armageddon finale.

I limiti dell’addestramento alla sicurezza

Lo studio solleva seri dubbi sull’efficacia delle attuali tecniche di allineamento e sicurezza (come l’RLHF, l’apprendimento per rinforzo tramite feedback umano). Sebbene queste tecniche sembrino creare una moderazione di base, questa si rivela essere solo un “dosso” stradale piuttosto che un muro insormontabile. Sotto pressione, le IA superano facilmente i limiti etici imposti durante l’addestramento.

In definitiva, la ricerca del King’s College suggerisce che le macchine non comprendono intrinsecamente il rischio esistenziale legato alle armi nucleari. Mentre un essere umano percepisce il peso morale e fisico di un lancio nucleare, per l’IA si tratta semplicemente di un’altra mossa sulla scacchiera per evitare la sconfitta.