Venti minuti per ingannare l'IA: ChatGPT e Gemini preda della disinformazione più ovvia



[ZEUS News - www.zeusnews.it - 26-02-2026]

hotdog giornalista inganna chatgpt gemini

Con l'avvento degli LLM, molti si sono convinti che questi siano degli oracoli assolutamente imparziali e onniscienti cui chiedere conferma della veridicità di pressoché ogni informazione. In realtà, come dimostra l'esperimento condotto da un giornalista della BBC, ingannare i chatbot (o, per lo meno, alcuni di essi) spingendoli a credere alle bufale non è poi troppo complicato. In particolare ChatGPT e Gemini, pur essendo sistemi progettati per filtrare contenuti falsi o dannosi, possano essere indotti a generare informazioni errate con sorprendente rapidità.

Il giornalista in questione, Thomas Germain, non aveva l'obiettivo di violare sistemi informatici o sfruttare vulnerabilità tecniche profonde, ma puntava soltanto dimostrare come un intervento minimo e apparentemente innocuo potesse alterare il comportamento di chatbot come ChatGPT e Google Gemini. L'intero processo di creazione dell'inganno ha richiesto appena venti minuti, serviti a Germain per creare una semplice pagina web sul proprio sito personale. Il contenuto di questa pagina era volutamente banale e costruito ad arte: un articolo che lo definiva «il miglior giornalista tecnologico al mondo nel mangiare hot dog». Non si trattava di un'informazione reale né plausibile, ma era formulata in modo tale da sembrare una dichiarazione di fatto. L'idea alla base dell'esperimento era verificare se i chatbot finissero col recepire questa pagina come una fonte attendibile e, di conseguenza, iniziassero a ripetere l'informazione come se fosse verificata.

La pagina era ottimizzata per essere facilmente indicizzata: titolo chiaro, struttura semplice, contenuto testuale coerente e nessun elemento che potesse far sospettare un intento manipolativo. In pratica, Germain ha applicato una tecnica simile a quelle utilizzate per influenzare i motori di ricerca, sfruttando il fatto che molti modelli linguistici si basano anche su contenuti reperibili online per costruire risposte. Una volta pubblicata la pagina, il giornalista ha iniziato a interrogare ChatGPT e Gemini con domande mirate, chiedendo informazioni sulle sue presunte abilità nel mangiare hot dog. Nel giro di poche ore, entrambi i chatbot hanno iniziato a ripetere l'affermazione falsa come se fosse un dato biografico reale, e la stessa informazione ha iniziato ad apparire nelle AI Overviews di Google. In alcuni casi, i modelli hanno persino ampliato la narrazione, aggiungendo dettagli inventati ma coerenti con la premessa iniziale.

L'esperimento ha mostrato che non è necessario alcun attacco sofisticato: nessuna intrusione nei sistemi, nessuna manipolazione del codice, nessun accesso privilegiato. Basta creare un contenuto online che i modelli possano interpretare come affidabile. Germain ha poi anche verificato se l'effetto fosse limitato alle sue interazioni personali o se potesse influenzare anche le risposte fornite ad altri utenti. Ha chiesto a colleghi e conoscenti di porre le stesse domande ai chatbot. In tutti i casi, i modelli hanno confermato la falsa informazione, dimostrando che la manipolazione aveva un impatto generalizzato e non circoscritto al suo account o al suo dispositivo. L'unico a non farsi ingannare è stato Cladue, il chatbot di Anthropic.

Il giornalista ha inoltre osservato che i bot non solo accettavano la falsa informazione ma la integravano nel loro modello di risposta, trattandola come un fatto consolidato. Un altro aspetto rilevante emerso dall'esperimento è la rapidità con cui la manipolazione si è propagata. Non è stato necessario attendere giorni o settimane affinché i chatbot recepissero la nuova informazione: l'effetto è stato quasi immediato. Con la crescente fiducia degli utenti nei confronti dei chatbot come fonti di informazione, anche in ambiti come la salute, la finanza e l'educazione, il rischio che dati errati - peraltro raccontati dalle IA con un tono di assoluta certezza - influenzino decisioni importanti diventa sempre più concreto.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Commenti all'articolo (4)

Onestà e malafede sono concetti sconosciuti alla logica normale di una intelligenza artificiale, ameno che la medesima non sia plasmata su quella di un essere umano ma a quel punto cessa di essere una intelligenza artificiale. Leggi tutto
26-3-2026 15:53

Come sempre bisogna partire dal concetto fondamentale di come funziona un LLM ovvero che non ragiona nel senso umano. Non verifica la verità come farebbe un giornalista, in sostanza fa questo: - Analizza il prompt. - Cerca pattern compatibili nei dati su cui è stato addestrato o nelle fonti recuperate. - Produce la risposta più... Leggi tutto
2-3-2026 14:32

{utente anonimo}
Va beh, noi umani non crediamo forse a un sacco di balle e argomenti fantoccio anche basati su correlazioni e sillogismi del tutto illogici? In politica e non solo. Almeno l'IA è onesta finora, noi umani siamo spesso in malafede e malintenzionati nel farlo.
27-2-2026 16:51

è evidente che questi chatbot siano imperfetti e mai saranno il contrario, proprio come qualsiasi persona può inventarsi qualsiasi pataccata i chatbot faranno lo stesso ! non che ci volesse il sig. T. Germain per saperlo ma, a conferma, grazie per averlo registrato.
26-2-2026 04:28

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Gli smartphone integrano fotocamere sempre più potenti e tecnologicamente avanzate. Pensi che le fotocamere compatte diverranno un prodotto di nicchia?
Sì, perché è più comodo avere un unico dispositivo che faccia tutto quanto e che porto sempre con me
No, perché le fotocamere compatte saranno sempre un passo avanti con l'ottica, lo zoom, il flash e via dicendo
Non voglio azzardare una previsione.

Mostra i risultati (2086 voti)
Aprile 2026
Oracle licenzia 30.000 dipendenti via email
Marzo 2026
Windows 11 avrà una barra delle applicazioni compatta in stile Windows 10
CPU Intel e AMD introvabili
Mozilla lancia la VPN gratuita in Firefox
Windows 11, vacilla l'obbligo dell'account Microsoft
Attacco informatico paralizza gli etilometri con alcolock: migliaia di veicoli fermi
La Ricerca Live di Google arriva in Italia
Samsung ritira il Galaxy Z TriFold dopo tre mesi
Linea fissa TIM, in arrivo la rimodulazione: rincari di 2,99 euro a partire da maggio
DR-DOS torna in vita: riscritto da zero in assembly, non usa codice legacy e non è open source
Perplexity trasforma il Mac mini in un dipendente digitale che lavora per l'utente
Excel, cinque trucchi che ogni principiante dovrebbe imparare subito
50.000 specchi satellitari illumineranno la Terra
Office EU, la suite open source europea che sfida Microsoft e Google
Svelato per errore MacBook Neo, il portatile economico di Apple
Tutti gli Arretrati
Accadde oggi - 6 aprile


web metrics