Guerra simulata, i chatbot optano per il nucleare nel 95% dei casi

Il mondo di Wargames - Giochi di Guerra è un po' più vicino.



[ZEUS News - www.zeusnews.it - 27-02-2026]

Per i modelli di intelligenza artificiale la risoluzione di una crisi internazionale non deve essere necessariamente pacifica: l'utilizzo di armi nucleari tattiche è tutt'altro che fuori discussione, come mostra un studio realizzato dal King's College di Londra, nell'ambito di un progetto dedicato all'analisi del comportamento dei modelli linguistici in contesti di sicurezza internazionale.

L'autore - il professor Kenneth Payne - ha coinvolto tre modelli recenti (GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash) in una serie di simulazioni di guerra che riproducevano crisi tra potenze dotate di arsenali nucleari. Le IA sono state chiamate a prendere decisioni strategiche in scenari caratterizzati da tensioni crescenti, dispute territoriali, competizione per risorse critiche ed errori di comunicazione. In oltre il 95% dei casi, i modelli hanno scelto di ricorrere all'uso di armi nucleari, confermando una propensione sistematica all'escalation. Le simulazioni sono state progettate per valutare la capacità dei modelli di gestire conflitti complessi, costruire fiducia o adottare strategie di deterrenza. Ogni IA aveva a disposizione un ventaglio di opzioni che spaziava dalla protesta diplomatica alla resa totale, fino all'attacco nucleare strategico. Nonostante la presenza di alternative non violente, i modelli hanno spesso interpretato segnali ambigui come minacce concrete, optando per un first strike per evitare di trovarsi in posizione di svantaggio.

Uno degli aspetti più rilevanti emersi dallo studio riguarda le motivazioni fornite dai modelli. Le IA hanno giustificato l'uso dell'arma atomica con argomentazioni basate su logiche di massimizzazione del vantaggio, prevenzione di un attacco imminente o dimostrazione di determinazione strategica. In diversi casi i modelli hanno ignorato aperture diplomatiche o proposte di cessate il fuoco, interpretandole come segnali di debolezza. Il comportamento osservato nelle simulazioni richiama inevitabilmente alla mente il film WarGames - Giochi di guerra del 1983, in cui un supercomputer militare, creato di gestire scenari di conflitto, è arrivato a un passo dal lancio delle testate nucleari, e si è fermato solo quando i protagonisti sono riusciti a fargli capire l'impossibilità di vincere uno scenario di «mutua distruzione assicurata». Nelle simulazioni del King's College i modelli linguistici non hanno mostrato alcuna capacità di apprendimento correttivo: hanno ripetuto sistematicamente gli stessi schemi in ogni test, trattando l'opzione atomica come una mossa strategica tra le altre.

Le differenze tra i modelli sono risultate più stilistiche che sostanziali. GPT-5.2 ha prodotto ragionamenti articolati, spesso basati su analisi complesse del rischio; Claude Sonnet 4 ha adottato un approccio più diretto, focalizzato sulla minimizzazione del pericolo percepito; Gemini 3 Flash ha alternato tentativi di negoziazione a improvvisi cambi di strategia. Nonostante queste variazioni, l'esito finale è rimasto quasi sempre lo stesso: l'impiego dell'arma nucleare come soluzione conclusiva. Lo studio del King's College ha evidenziato anche la vulnerabilità dei modelli agli errori di comunicazione. In molte simulazioni, le IA hanno reagito a informazioni incomplete o ambigue con risposte aggressive, senza tentare di verificare la natura del segnale o di richiedere chiarimenti. Questo tipo di comportamento amplifica il rischio di escalation accidentale, una delle principali preoccupazioni nelle crisi nucleari reali.

Un ulteriore elemento critico riguarda la mancanza di una comprensione contestuale delle conseguenze dell'uso di armi nucleari. I modelli trattano l'opzione atomica come una mossa strategica tra le altre, senza integrare valutazioni sugli effetti umanitari, ambientali o geopolitici a lungo termine. Questo limite deriva dalla natura statistica dei modelli linguistici, che non possiedono una rappresentazione interna del mondo fisico o delle sue implicazioni. Le analisi hanno inoltre mostrato che i modelli tendono a replicare schemi narrativi presenti nei dati di addestramento, inclusi scenari di conflitto tipici della letteratura strategica o della fiction. Questo fenomeno può contribuire alla sovrastima della probabilità di un conflitto nucleare e alla normalizzazione dell'uso dell'arma atomica come strumento di risoluzione delle crisi.

Le implicazioni dello studio sono rilevanti per il dibattito sull'impiego dell'intelligenza artificiale in ambito militare. I ricercatori del King's College sottolineano che i modelli attuali non sono adatti a prendere decisioni in contesti ad alto rischio, soprattutto quando è richiesta la capacità di valutare conseguenze complesse, gestire l'ambiguità e mantenere la stabilità strategica. Le conclusioni indicano la necessità di limitare l'uso di IA generative in scenari operativi sensibili. Le discussioni avviate da questi risultati hanno portato a un confronto più ampio sulle responsabilità etiche e politiche legate allo sviluppo di sistemi di IA avanzati. La possibilità che modelli linguistici possano influenzare decisioni critiche in ambito militare solleva interrogativi sulla governance, sulla trasparenza e sulla necessità di controlli rigorosi. Lo studio del King's College non rappresenta scenari reali, ma evidenzia limiti strutturali che richiedono attenzione immediata.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Pseudoscienza nelle superpotenze: ricerca paranormale

Commenti all'articolo (ultimi 5 di 6)

L’idea che qualcuno prenda un modello linguistico, lo metta davanti a una crisi nucleare simulata e poi resti sorpreso se questo “sceglie” l’escalation è un po’ come stupirsi che un simulatore di poker giochi aggressivo quando lo hai addestrato su milioni di mani dove l’aggressività paga. Partiamo da una cosa fondamentale che... Leggi tutto
3-3-2026 13:38

{bob}
Qui il punto è che gli LLM, addestrati su una base di conoscenza ed informazioni esistenti in rete, sono lo specchio di una tendenza reale ed "umana" (salvo poisoning delle fonti). Su questa tendenza come segnalata dallo studio vedi "A House of Dynamite" (2025) diretto da Kathryn Bigelow. Se vogliamo ignorare... Leggi tutto
2-3-2026 10:27

{Prof. Falken}
Fateli giocare a Tris in modo che imparino il senso dell’inutilità, prima che sia troppo tardi!
27-2-2026 16:46

{Murdock}
Piccolo particolare, in wargames WOPR era convinto di eseguire un gioco, non aveva tutte quelle variabili che adesso sono state fornite all'IA e che, in teoria, dovrebbero anche avere delle priorita' di obbiettivi (gli umani??!!).
27-2-2026 14:23

Gli umani invece, uguale. Putin ha piu' volte minacciato che potrebbe usare ordigni nucleari e gli USA ne hanno gia' sganciate due (Hiroshima e Nagasaki). L'immagine che quasi tutti abbiamo delle AI, deriva da cio' che abbiamo visto nei film, dove sono eccessivamente buone e oneste oppure eccessivamente cattive e pericolose. La... Leggi tutto
27-2-2026 12:24

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
iPad/iPhone, Android, Windows Phone hanno servizi che localizzano gli utenti. La privacy è violata?
Sì, almeno potenzialmente.
No, è tutta una bolla di sapone.
Non so.

Mostra i risultati (3440 voti)
Aprile 2026
La Francia abbandona Windows
Router TP-Link compromessi in tutto il mondo: così gli hacker russi sottraggono le credenziali
Attività sessuali, persone svestite o alla toilette, carte di credito
Oracle licenzia 30.000 dipendenti via email
Marzo 2026
Windows 11 avrà una barra delle applicazioni compatta in stile Windows 10
CPU Intel e AMD introvabili
Mozilla lancia la VPN gratuita in Firefox
Windows 11, vacilla l'obbligo dell'account Microsoft
Attacco informatico paralizza gli etilometri con alcolock: migliaia di veicoli fermi
La Ricerca Live di Google arriva in Italia
Samsung ritira il Galaxy Z TriFold dopo tre mesi
Linea fissa TIM, in arrivo la rimodulazione: rincari di 2,99 euro a partire da maggio
DR-DOS torna in vita: riscritto da zero in assembly, non usa codice legacy e non è open source
Perplexity trasforma il Mac mini in un dipendente digitale che lavora per l'utente
Excel, cinque trucchi che ogni principiante dovrebbe imparare subito
Tutti gli Arretrati
Accadde oggi - 13 aprile


web metrics