Possiamo vivere con computer che sbagliano?

Cassandra Crossing/ L'introduzione forzata di LLM in tutti i settori dell'informatica, che la finanza rende obbligatoria, ha fatto una importante vittima: la fiducia nelle risposte dei computer. Ma possiamo conviverci senza perderci in un mondo fatto di allucinazioni ed errori?



[ZEUS News - www.zeusnews.it - 11-09-2025]

cassandra computer che sbagliano

La filosofia della scienza non è cosa che sia familiare a Cassandra, se non a causa di quei pochi fatterelli avvenuti durante una vita passata immersa dentro la tecnologia fino ai capelli, che talvolta le hanno dato molto da pensare. È per questo che, dopo aver tanto scritto sulle false intelligenze artificiali, cioè sui Large Language Model (LLM) venduti come oracoli, ha sentito il bisogno di fare diversi passi indietro, per osservare quello che sta succedendo e quello che succederà, e trovare non il nocciolo dei problemi presenti, che sta certamente nella finanza, ma quello dei problemi futuri. Magari perfino ipotizzare una possibilità di soluzione.

A questo livello estremamente generale quale è il rischio per l'umanità se l'introduzione massiccia di LLM come oracoli continuasse? I 24 lettori infaticabili di Cassandra potrebbero facilmente preparare una lista come questa:
1. Consumi energetici tali da incidere sul cambiamento climatico;
2. Perdita di posti di lavoro e aumento della povertà, particolarmente nei Paesi sviluppati;
3. Inquinamento dell'infosfera, o se preferite della cultura stessa, per la diffusione incontrollabile di contenuti generati da LLM, che renderanno documentalmente indistinguibili la realtà e la storia dalle allucinazioni;
4. Esplosioni di bolle finanziarie tali da mettere in pericolo gli scambi commerciali globali e incidere sui bisogni essenziali di una buona parte dei troppi abitanti di questo pianeta;
5. Perdita generalizzata di capacità mentali, di iniziativa e di competenza, a partire dai professionisti e dai ricercatori fino alla generalità dell'umanità;
6. Riduzione in pappa delle menti di chi è nei suoi anni formativi, con la produzione massiccia di persone prive di capacità mentali e non in grado di produrre contributi significativi per l'umanità.

Queste previsioni, che sono tutte (purtroppo) destinate più o meno ad avverarsi, rappresentano ciò che si può vedere allontanandosi solo di un passo dalla cronaca quotidiana.

Facciamo ancora un passo indietro, magari più di uno. Probabilmente la maggior parte delle persone non riesce più a rendersi conto di quanto l'informatica (ormai dire "computer" sarebbe riduttivo e impreciso) abbia permeato l'antroposfera del pianeta, e di quanto tutto dipenda ormai da essa - ma proprio tutto, per i ricchi e i poveri, per i giovani e per i vecchi. Cosa cambierà se l'introduzione degli LLM come oracoli continuerà come pare destinata a fare? Decenni di informatica pre-LLM ci hanno abituato a considerare i computer o meglio i sistemi informatici come oracoli. "Oracolo" nel campo intelligenza artificiale non è un termine generico e impreciso ma contraddistingue una classe precisa di sistemi; quelli con cui si può interagire ponendo una domanda generica e avendo in cambio una risposta esatta.

Non c'è bisogno di pensare a sistemi complessi; una semplice calcolatrice tascabile, o l'equivalente app sullo smartphone, è un oracolo per le quattro operazioni, il suo campo di applicazione; se interrogata con la domanda "2+2=" darà invariabilmente la risposta "4" e in questa risposta noi riporremmo completa fiducia. E avremmo pienamente ragione. È un sistema informatico fatto per questo. A parte guasti o errori di programmazione, di solito abbastanza riconoscibili, l'informatica ci ha abituati a considerare affidabili le risposte che ci fornisce (nessuno si metta a ridere, siamo a un livello generale e filosofico, non pratico). Solo pochi anni fa a nessuno sarebbe venuto in mente di porre a una calcolatrice più grande la domanda «Con chi devo uscire stasera?» oppure «Che cosa posso scrivere in questa relazione urgente?».

Le cose purtroppo non stanno più così, a causa degli LLM usati come oracoli. Cosa comporta l'introduzione nell'informatica di oggi degli LLM? Semplicemente l'introduzione in ogni dove di scatole nere usate come oracoli, che forniscono risposte credibili non esatte, che poi cerchiamo di puntellare complicando ulteriormente il sistema informatico, modificando le domande indesiderate e cercando di eliminare le risposte credibili ma errate. Non è un modo di procedere ragionevole. Non è un modo di procedere affidabile. Ma l'effetto Eliza è potente e la gente lo fa.

Perché questo accade? Per i soldi? Per il potere? Certamente, ma anche questa è una risposta a livello pratico; quale è la risposta allo stesso livello filosofico della precedente? Ecco, questo è il problema che ha occupato per un bel po' Cassandra, ormai annoiata, anzi disgustata, di dover esternare su questioni pratiche e spicciole che alla fine «ben capitorno a gente meccaniche, e di piccol affare». Perché sta succedendo questo? Quale è la causa motrice comune dietro ciascuna delle questioni create dalle false intelligenze artificiali? Cassandra ha lentamente, molto lentamente, forse troppo lentamente trovato una risposta, e la risposta è così semplice da sembrare deludente; la risposta è produttività. La potete chiamare anche voglia di non lavorare oppure desiderio di non pagare i lavoratori, state parlando della stessa cosa.

State pensando allo studente col cervello in pappa che non ha voglia di fare i compiti, al professionista che non sa scrivere la relazione che deve consegnare entro la sera, a chi deve prendere decisioni importanti ma deve anche salvarsi il c..o. Generalizzata, sempre della stessa questione si tratta. Produttività. Tutto qui. È questo che spiega tutti i problemi causati dagli LLM. Permettono, a qualsiasi livello, di essere apparentemente più produttivi. Ma torniamo alla questione principale. Possiamo sopravvivere a questa tendenza epocale? Possiamo convivere con gli LLM usati come oracoli per essere più produttivi? Possiamo convivere con computer che sbagliano?

Dipende da molte cose, ma negli ultimi millenni l'umanità è sopravvissuta, magari in modo non piacevole per molti esseri umani, a gravi errori; per esempio all'incompetenza dei capi, oppure a oracoli (veri) che a domande precise rispondevano con risposte interpretabili, in cui il significato veniva messo da chi aveva posto la domanda. «Ibis redibis non morieris in bello». Importanza della virgola che non c'è! Proprio come nelle risposte di un LLM. Ma lasciamo perdere il latinorum e andiamo avanti, doverosamente dato il ruolo di profetessa che Cassandra esercita. Chiediamoci adesso se questa tendenza è contrastabile.

È possibile convivere con sistemi informatici che per progetto possono sbagliare? La risposta è un no deciso, ma non per i motivi che potreste pensare. Non perché il ponte progettato da un LLM nello studio di un ingegnere crollerà. Non perché il chirurgo robot squarterà il paziente invece di togliergli l'appendice. Non perché il politico di turno attuerà piani di sviluppo della città nella zona di una caldera vulcanica destinata a esplodere. No, secondo Cassandra la conseguenza a cui non possiamo sopravvivere è la corruzione della parte immortale dell'umanità, della sua cultura. Non possiamo sopravvivere all'inquinamento e alla corruzione dell'infosfera, inevitabile in una situazione in cui i nuovi e abbondanti contributi non verranno più dalla competenza di esseri umani ma dalle produzioni credibili di LLM e oggetti simili. Quindi la risposta è davvero un no deciso, non possiamo convivere con computer che sbagliano.

L'Antropocene, nel bene e nel male, è stato reso possibile non dalla natura benigna o dall'accumulazione del capitale, ma dall'accumulazione del sapere in forma conservabile. Questa è la cosa essenziale da proteggere, il vero e difficilissimo problema che dobbiamo affrontare fin da subito, anche (ma non solo) guidando lo sviluppo dell'intelligenza artificiale in direzioni meno pericolose, più sane e più utili di quelle attuali. La finanza ce lo permetterà?

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Intelligenza Artificiale: GPT-4, orgasmi e Pappagalli Stocastici
Il demone nel pentacolo
Intelligenza artificiale: il programmatore pericoloso
Intelligenza Artificiale: esorcismi

Commenti all'articolo (3)

Per convenzione l'effetto Dunning-Kruger è l'avere chi si informa da wikipedia che pensa di saperne di più del laureato con la laurea specialistica con vent'anni d'esperienza in un dato campo. Ma quello non è il vero effetto Dunning-Kruger, ma un'invenzione giornalistica (Come lo è il chiamare i LLM con il nome di Intelligenza... Leggi tutto
12-9-2025 08:42

{UtenteAnonimo}
@calamarim devo ribadire, che trovo discutibile che lei si ostini a definire gli LLM false intelligenze artificiali. Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI. Io mi immagino un ecologista super convinto, che definisca le... Leggi tutto
11-9-2025 19:35

Questo avviene già senza il bisogno dele IA LLM, secondo le testate giornalistiche una alta percentuale di Laureati non riesce a comprendere il testo che legge. Al massimo le IA LLM possono occuparsi del resto. :twisted: Per quanto riguarda l'attesa sulla esattezza delle risposte da parte di una macchina, la macchina stessa esiste e... Leggi tutto
11-9-2025 17:24

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Qual è la politica della tua azienda nei confronti dei dispositivi mobili dei dipendenti? Bring Your Own Device oppure Corporate Owned, Personally Enabled?
BYOD
COPE
Non c'è una policy dominante, dipende dagli utenti
Non lo so
Non lavoro in un'azienda

Mostra i risultati (1051 voti)
Settembre 2025
iPhone 17 Air: Apple svela il melafonino più sottile di sempre, con design in titanio ma senza SIM
Il web aperto è ufficialmente in crisi: lo ammette pure Google. La colpa è anche della IA
Intelligenza artificiale per le automobili, licenziati 54 ricercatori a Torino
Dolcificanti a zero calorie e declino cognitivo: una ricerca brasiliana scopre un preoccupante legame
WinToUSB trasforma una chiavetta USB in un sistema Windows perfettamente funzionante
Meta accede a tutto il rullino fotografico senza permesso. Ma disattivare si può: ecco come
Agosto 2025
Google, stop all'obbligo di usare Gmail per gli account Android
Browser IA, l'allarme di Malwarebytes: ingannare gli assistenti e rubare dati è fin troppo semplice
Lo script che estende gli aggiornamenti di sicurezza di Windows 10 anche senza account Microsoft
La Danimarca saluta la posta cartacea: la consegna delle lettere terminerà alla fine dell'anno
PayPal, allarme sicurezza: i dati di 15,8 milioni di account in vendita sul dark web
Volkswagen, microtransazioni nelle auto: per utilizzare tutti i cavalli bisogna abbonarsi
Windows 11 24H2, dopo l'aggiornamento i dischi scompaiono. E i dati possono corrompersi
Microsoft fagocita GitHub: fine dell'indipendenza dopo sette anni. Futuro nella IA
Chiede a ChatGPT come sostituire il sale, finisce in ospedale con una malattia di cent'anni fa
Tutti gli Arretrati
Accadde oggi - 12 settembre


web metrics