Guerra simulata, i chatbot optano per il nucleare nel 95% dei casi

Il mondo di Wargames - Giochi di Guerra è un po' più vicino.



[ZEUS News - www.zeusnews.it - 27-02-2026]

Per i modelli di intelligenza artificiale la risoluzione di una crisi internazionale non deve essere necessariamente pacifica: l'utilizzo di armi nucleari tattiche è tutt'altro che fuori discussione, come mostra un studio realizzato dal King's College di Londra, nell'ambito di un progetto dedicato all'analisi del comportamento dei modelli linguistici in contesti di sicurezza internazionale.

L'autore - il professor Kenneth Payne - ha coinvolto tre modelli recenti (GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash) in una serie di simulazioni di guerra che riproducevano crisi tra potenze dotate di arsenali nucleari. Le IA sono state chiamate a prendere decisioni strategiche in scenari caratterizzati da tensioni crescenti, dispute territoriali, competizione per risorse critiche ed errori di comunicazione. In oltre il 95% dei casi, i modelli hanno scelto di ricorrere all'uso di armi nucleari, confermando una propensione sistematica all'escalation. Le simulazioni sono state progettate per valutare la capacità dei modelli di gestire conflitti complessi, costruire fiducia o adottare strategie di deterrenza. Ogni IA aveva a disposizione un ventaglio di opzioni che spaziava dalla protesta diplomatica alla resa totale, fino all'attacco nucleare strategico. Nonostante la presenza di alternative non violente, i modelli hanno spesso interpretato segnali ambigui come minacce concrete, optando per un first strike per evitare di trovarsi in posizione di svantaggio.

Uno degli aspetti più rilevanti emersi dallo studio riguarda le motivazioni fornite dai modelli. Le IA hanno giustificato l'uso dell'arma atomica con argomentazioni basate su logiche di massimizzazione del vantaggio, prevenzione di un attacco imminente o dimostrazione di determinazione strategica. In diversi casi i modelli hanno ignorato aperture diplomatiche o proposte di cessate il fuoco, interpretandole come segnali di debolezza. Il comportamento osservato nelle simulazioni richiama inevitabilmente alla mente il film WarGames - Giochi di guerra del 1983, in cui un supercomputer militare, creato di gestire scenari di conflitto, è arrivato a un passo dal lancio delle testate nucleari, e si è fermato solo quando i protagonisti sono riusciti a fargli capire l'impossibilità di vincere uno scenario di «mutua distruzione assicurata». Nelle simulazioni del King's College i modelli linguistici non hanno mostrato alcuna capacità di apprendimento correttivo: hanno ripetuto sistematicamente gli stessi schemi in ogni test, trattando l'opzione atomica come una mossa strategica tra le altre.

Le differenze tra i modelli sono risultate più stilistiche che sostanziali. GPT-5.2 ha prodotto ragionamenti articolati, spesso basati su analisi complesse del rischio; Claude Sonnet 4 ha adottato un approccio più diretto, focalizzato sulla minimizzazione del pericolo percepito; Gemini 3 Flash ha alternato tentativi di negoziazione a improvvisi cambi di strategia. Nonostante queste variazioni, l'esito finale è rimasto quasi sempre lo stesso: l'impiego dell'arma nucleare come soluzione conclusiva. Lo studio del King's College ha evidenziato anche la vulnerabilità dei modelli agli errori di comunicazione. In molte simulazioni, le IA hanno reagito a informazioni incomplete o ambigue con risposte aggressive, senza tentare di verificare la natura del segnale o di richiedere chiarimenti. Questo tipo di comportamento amplifica il rischio di escalation accidentale, una delle principali preoccupazioni nelle crisi nucleari reali.

Un ulteriore elemento critico riguarda la mancanza di una comprensione contestuale delle conseguenze dell'uso di armi nucleari. I modelli trattano l'opzione atomica come una mossa strategica tra le altre, senza integrare valutazioni sugli effetti umanitari, ambientali o geopolitici a lungo termine. Questo limite deriva dalla natura statistica dei modelli linguistici, che non possiedono una rappresentazione interna del mondo fisico o delle sue implicazioni. Le analisi hanno inoltre mostrato che i modelli tendono a replicare schemi narrativi presenti nei dati di addestramento, inclusi scenari di conflitto tipici della letteratura strategica o della fiction. Questo fenomeno può contribuire alla sovrastima della probabilità di un conflitto nucleare e alla normalizzazione dell'uso dell'arma atomica come strumento di risoluzione delle crisi.

Le implicazioni dello studio sono rilevanti per il dibattito sull'impiego dell'intelligenza artificiale in ambito militare. I ricercatori del King's College sottolineano che i modelli attuali non sono adatti a prendere decisioni in contesti ad alto rischio, soprattutto quando è richiesta la capacità di valutare conseguenze complesse, gestire l'ambiguità e mantenere la stabilità strategica. Le conclusioni indicano la necessità di limitare l'uso di IA generative in scenari operativi sensibili. Le discussioni avviate da questi risultati hanno portato a un confronto più ampio sulle responsabilità etiche e politiche legate allo sviluppo di sistemi di IA avanzati. La possibilità che modelli linguistici possano influenzare decisioni critiche in ambito militare solleva interrogativi sulla governance, sulla trasparenza e sulla necessità di controlli rigorosi. Lo studio del King's College non rappresenta scenari reali, ma evidenzia limiti strutturali che richiedono attenzione immediata.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Pseudoscienza nelle superpotenze: ricerca paranormale

Commenti all'articolo (ultimi 5 di 6)

L’idea che qualcuno prenda un modello linguistico, lo metta davanti a una crisi nucleare simulata e poi resti sorpreso se questo “sceglie” l’escalation è un po’ come stupirsi che un simulatore di poker giochi aggressivo quando lo hai addestrato su milioni di mani dove l’aggressività paga. Partiamo da una cosa fondamentale che... Leggi tutto
3-3-2026 13:38

{bob}
Qui il punto è che gli LLM, addestrati su una base di conoscenza ed informazioni esistenti in rete, sono lo specchio di una tendenza reale ed "umana" (salvo poisoning delle fonti). Su questa tendenza come segnalata dallo studio vedi "A House of Dynamite" (2025) diretto da Kathryn Bigelow. Se vogliamo ignorare... Leggi tutto
2-3-2026 10:27

{Prof. Falken}
Fateli giocare a Tris in modo che imparino il senso dell’inutilità, prima che sia troppo tardi!
27-2-2026 16:46

{Murdock}
Piccolo particolare, in wargames WOPR era convinto di eseguire un gioco, non aveva tutte quelle variabili che adesso sono state fornite all'IA e che, in teoria, dovrebbero anche avere delle priorita' di obbiettivi (gli umani??!!).
27-2-2026 14:23

Gli umani invece, uguale. Putin ha piu' volte minacciato che potrebbe usare ordigni nucleari e gli USA ne hanno gia' sganciate due (Hiroshima e Nagasaki). L'immagine che quasi tutti abbiamo delle AI, deriva da cio' che abbiamo visto nei film, dove sono eccessivamente buone e oneste oppure eccessivamente cattive e pericolose. La... Leggi tutto
27-2-2026 12:24

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Questo sondaggio è stato visto sul sito di un ristorante a domicilio: Qual è il motivo principale per cui hai fatto un ordine nel nostro ristorante online?
Ho cliccato su un annuncio o un banner pubblicitario.
Avevo un coupon o un buono sconto.
Me l'ha raccomandato un amico o un parente.
Me l'ha suggerito un collega di lavoro.
Avevo già ordinato qui e mi ero trovato bene.
Dalle immagini i piatti proposti sembravano appetitosi.
Altro, specificare --> "AVEVO FAME"

Mostra i risultati (632 voti)
Marzo 2026
Office EU, la suite open source europea che sfida Microsoft e Google
Svelato per errore MacBook Neo, il portatile economico di Apple
Windows 12 è in arrivo: NPU obbligatoria e milioni di PC a rischio obsolescenza
Motorola lascia Android e va su GrapheneOS, per la massima privacy
Copia privata, scattano gli aumenti: tassato anche il cloud!
Febbraio 2026
Il titolo IBM precipita in borsa: colpa dell'IA e c'entra il COBOL
Outlook diventa inutilizzabile, un bug fa sparire il cursore del mouse
ISEE, la presentazione non è più necessaria: il sistema automatico rivoluziona controlli e procedure
Meta chiude il sito di Messenger
Winhance ottimizza Windows 11: meno app inutili, più velocità e controllo sistema
Grave falla in Chrome già attivamente sfruttata: aggiornare subito il browser di Google
Western Digital ha già venduto tutti gli hard disk del 2026
Claude, il piano gratuito si potenzia: quattro funzioni premium ora accessibili a tutti
Windows più leggero e veloce: WinUtil elimina il superfluo e personalizza il sistema in profondità
Agenzia delle Entrate su IO: avvisi, scadenze e comunicazioni fiscali
Tutti gli Arretrati
Accadde oggi - 10 marzo


web metrics