IA e Modelli linguistici, la loro capacità di ragionare è solo un ''fragile miraggio''

Uno studio smonta i progressi apparenti delle intelligenze artificiali: non comprendono, ma si limitano a riproporre gli schemi su cui sono state addestrate.



[ZEUS News - www.zeusnews.it - 12-08-2025]

llm ragionamento fragile miraggio

Un recente studio condotto da ricercatori delle università di Princeton e UC Berkeley, pubblicato in pre-print su arXiv, ha messo in luce una limitazione significativa dei grandi modelli linguistici (LLM), come quelli che alimentano assistenti AI avanzati: nonostante la loro capacità di generare testi fluidi e convincenti, questi modelli mostrano gravi carenze nel ragionamento logico e nell'inferenza, producendo spesso quello che i ricercatori definiscono «fluent nonsense» (discorsi scorrevoli ma privi di senso).

Lo studio si concentra sul fenomeno del "ragionamento simulato" degli LLM, ovvero la loro apparente capacità di seguire catene logiche di pensiero (chain-of-thought reasoning), un aspetto sottolineato particolarmente al momento del lancio di alcuni modelli recenti, come Grok 4 e GPT-5. I ricercatori hanno testato modelli come quelli di OpenAI, Google e Meta, scoprendo che le loro prestazioni peggiorano in modo significativo quando devono generalizzare andando al di là dei dati su cui sono stati addestrati. Per esempio, in compiti che richiedono di applicare regole logiche a nuovi scenari, gli LLM tendono a produrre risposte che sembrano corrette in superficie ma che, a un'analisi più approfondita, risultano incoerenti o errate. Questo problema è particolarmente evidente quando i modelli sono sottoposti a test di logica formale o a domande che richiedono un ragionamento astratto, come dimostrato da esperimenti che hanno messo in luce errori sistematici in problemi matematici o di deduzione.

Un aspetto interessante emerso dalla ricerca è che il processo di ottimizzazione, come il fine tuning o il rinforzo con feedback umano (RLHF), può addirittura peggiorare queste carenze. Ciò avviene perché gli LLM sono progettati per massimizzare la probabilità di generare sequenze di parole plausibili, non per verificare la correttezza logica delle loro affermazioni. Come sottolineato da un rapporto di Nature, gli LLM eccellono nel sintetizzare informazioni e nel generare testi che imitano il ragionamento umano, ma non riescono a replicare il processo di inferenza che sta alla base della vera comprensione.

Le implicazioni di queste limitazioni sono rilevanti in diversi ambiti. Per esempio, nel settore scientifico, dove giganti come Microsoft stanno esplorando sistemi AI auto-adattivi per supportare la ricerca, la mancanza di un ragionamento logico affidabile potrebbe compromettere l'accuratezza delle analisi. Analogamente, in contesti come la ricerca su Google, dove le AI Overview sono sempre più diffuse, errori logici potrebbero portare a informazioni fuorvianti per gli utenti.

I modelli che seguono il chain-of-thought (CoT) reasoning - scrivono i ricercatori - sono soltanto «una forma sofisticata di riconoscimento degli schemi» che «peggiora in modo sostanziale» quando viene portata al di là, anche di poco, del proprio campo di addestramento. E la capacità di creare «sciocchezze scorrevoli» genera «una falsa aura di affidabilità» che non regge davanti a un esame serio, ma che potrebbe trarre in inganno i meno provveduti. Insomma, gli enormi progressi apparenti compiuti dalle IA sarebbero «in gran parte un fragile miraggio» che va in pezzi rapidamente: «anziché dimostrare una vera comprensione del testo, il ragionamento CoT sembra consistere in una ripetizione degli schemi appresi durante l'addestramento».

Nonostante queste criticità, gli LLM continuano a essere strumenti potenti in ambiti che non richiedono un ragionamento rigoroso; e, senza dubbio, sono ampiamente adoperati in molti ambiti. Secondo un rapporto di theCUBE Research, quest'anno quasi la metà dei lavoratori impiegati in ruoli amministrativi ha utilizzato l'AI generativa per attività come la sintesi di informazioni o l'automazione di compiti ripetitivi. Tuttavia, per applicazioni che richiedono precisione, come la verifica di dati scientifici o la risoluzione di problemi complessi, i ricercatori suggeriscono di integrare gli LLM con sistemi esterni di validazione logica, come algoritmi simbolici o basi di conoscenza strutturate.

Un ulteriore problema emerso è la tendenza degli LLM a generare risposte che ignorano la verità fattuale. Un altro studio leggermente più vecchio, significativamente intitolato "Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models", evidenzia come i modelli, in particolare dopo il fine tuning, possano produrre affermazioni non veritiere con una sicurezza apparente che inganna gli utenti. Questo fenomeno, amplificato dall'addestramento su grandi quantità di dati testuali, rappresenta una sfida per l'adozione degli LLM in contesti dove l'accuratezza è cruciale.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Il ragionamento delle IA è un'illusione: falliscono su indovinelli e rompicapo. Lo studio di Apple
Da OpenAI un ''compagno virtuale'' per i programmatori
Le prestazioni della IA? Si testano con Super Mario
IA: era una bolla quella che è scoppiata
L'impercettibile pericolosità dei chatbot
NFT senza valore, la bolla è scoppiata

Commenti all'articolo (ultimi 5 di 8)

Sì, in questo caso la IA è stata diversamente allucinata... :lol:
25-8-2025 18:31

In realtà non è poi tanto campata per aria. Cercando in Rete si scopre che il lander di Viking 1 era alto poco più di 1,80 m, quindi è possibile che la IA abbia equivocato "distanza dalla Terra" come "altezza dal suolo". Ma di esempi come quello che citi il mare magnum di Internet è già pieno fino all'orlo...
25-8-2025 12:55

Parlando con un amico erano sorti dubbi sulla distanza dalla terra delle sonde Voyager, così ho fatto una rapida domanda a Google. Solo che parlando avevamo confuso i nomi delle Voyager con le Viking: senza accorgermi dell'errore ho chiesto la distanza da terra delle Viking. La risposta riassunta dalla ormai inevitabile AI è stata più o... Leggi tutto
25-8-2025 12:08

La preferisco se profuma di fritto. :wink: Leggi tutto
18-8-2025 17:52

Dàlle tempo e snifferà per te... (anzi, magari già lo fa e usa le banconote arrotolate)
18-8-2025 17:16

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Cosa pensi della domotica?
Se ne parla da almeno dieci anni ma di applicazioni pratiche ne ho viste ben poche.
I prodotti disponibili sono troppo costosi, non hanno mercato.
E' il futuro ma qualcosa si vede già oggi.
Si possono ottenere dei discreti risultati senza svenarsi: basta la propensione al "fai da te" e un po' di hacking.
Prima che io finisca di rispondere a questo sondaggio... il frigorifero avrà fatto la spesa on line da solo e il forno avrà deciso la mia cena sulla base dei miei gusti e degli ingredienti che ho in casa, mentre sullo smartphone mi sarà apparsa l'immagine di un venditore di aspirapolveri che ha appena suonato al citofono. Ma ovviamente a pulire i pavimenti ci pensa il robottino.

Mostra i risultati (1747 voti)
Aprile 2026
Router TP-Link compromessi in tutto il mondo: così gli hacker russi sottraggono le credenziali
Attività sessuali, persone svestite o alla toilette, carte di credito
Oracle licenzia 30.000 dipendenti via email
Marzo 2026
Windows 11 avrà una barra delle applicazioni compatta in stile Windows 10
CPU Intel e AMD introvabili
Mozilla lancia la VPN gratuita in Firefox
Windows 11, vacilla l'obbligo dell'account Microsoft
Attacco informatico paralizza gli etilometri con alcolock: migliaia di veicoli fermi
La Ricerca Live di Google arriva in Italia
Samsung ritira il Galaxy Z TriFold dopo tre mesi
Linea fissa TIM, in arrivo la rimodulazione: rincari di 2,99 euro a partire da maggio
DR-DOS torna in vita: riscritto da zero in assembly, non usa codice legacy e non è open source
Perplexity trasforma il Mac mini in un dipendente digitale che lavora per l'utente
Excel, cinque trucchi che ogni principiante dovrebbe imparare subito
50.000 specchi satellitari illumineranno la Terra
Tutti gli Arretrati
Accadde oggi - 12 aprile


web metrics