Cassandra Crossing/ L'introduzione forzata di LLM in tutti i settori dell'informatica, che la finanza rende obbligatoria, ha fatto una importante vittima: la fiducia nelle risposte dei computer. Ma possiamo conviverci senza perderci in un mondo fatto di allucinazioni ed errori?
[ZEUS News - www.zeusnews.it - 11-09-2025]
La filosofia della scienza non è cosa che sia familiare a Cassandra, se non a causa di quei pochi fatterelli avvenuti durante una vita passata immersa dentro la tecnologia fino ai capelli, che talvolta le hanno dato molto da pensare. È per questo che, dopo aver tanto scritto sulle false intelligenze artificiali, cioè sui Large Language Model (LLM) venduti come oracoli, ha sentito il bisogno di fare diversi passi indietro, per osservare quello che sta succedendo e quello che succederà, e trovare non il nocciolo dei problemi presenti, che sta certamente nella finanza, ma quello dei problemi futuri. Magari perfino ipotizzare una possibilità di soluzione.
A questo livello estremamente generale quale è il rischio per l'umanità se l'introduzione massiccia di LLM come oracoli continuasse? I 24 lettori infaticabili di Cassandra potrebbero facilmente preparare una lista come questa:
1. Consumi energetici tali da incidere sul cambiamento climatico;
2. Perdita di posti di lavoro e aumento della povertà, particolarmente nei Paesi sviluppati;
3. Inquinamento dell'infosfera, o se preferite della cultura stessa, per la diffusione incontrollabile di contenuti generati da LLM, che renderanno documentalmente indistinguibili la realtà e la storia dalle allucinazioni;
4. Esplosioni di bolle finanziarie tali da mettere in pericolo gli scambi commerciali globali e incidere sui bisogni essenziali di una buona parte dei troppi abitanti di questo pianeta;
5. Perdita generalizzata di capacità mentali, di iniziativa e di competenza, a partire dai professionisti e dai ricercatori fino alla generalità dell'umanità;
6. Riduzione in pappa delle menti di chi è nei suoi anni formativi, con la produzione massiccia di persone prive di capacità mentali e non in grado di produrre contributi significativi per l'umanità.
Queste previsioni, che sono tutte (purtroppo) destinate più o meno ad avverarsi, rappresentano ciò che si può vedere allontanandosi solo di un passo dalla cronaca quotidiana.
Facciamo ancora un passo indietro, magari più di uno. Probabilmente la maggior parte delle persone non riesce più a rendersi conto di quanto l'informatica (ormai dire "computer" sarebbe riduttivo e impreciso) abbia permeato l'antroposfera del pianeta, e di quanto tutto dipenda ormai da essa - ma proprio tutto, per i ricchi e i poveri, per i giovani e per i vecchi. Cosa cambierà se l'introduzione degli LLM come oracoli continuerà come pare destinata a fare? Decenni di informatica pre-LLM ci hanno abituato a considerare i computer o meglio i sistemi informatici come oracoli. "Oracolo" nel campo intelligenza artificiale non è un termine generico e impreciso ma contraddistingue una classe precisa di sistemi; quelli con cui si può interagire ponendo una domanda generica e avendo in cambio una risposta esatta.
Non c'è bisogno di pensare a sistemi complessi; una semplice calcolatrice tascabile, o l'equivalente app sullo smartphone, è un oracolo per le quattro operazioni, il suo campo di applicazione; se interrogata con la domanda "2+2=" darà invariabilmente la risposta "4" e in questa risposta noi riporremmo completa fiducia. E avremmo pienamente ragione. È un sistema informatico fatto per questo. A parte guasti o errori di programmazione, di solito abbastanza riconoscibili, l'informatica ci ha abituati a considerare affidabili le risposte che ci fornisce (nessuno si metta a ridere, siamo a un livello generale e filosofico, non pratico). Solo pochi anni fa a nessuno sarebbe venuto in mente di porre a una calcolatrice più grande la domanda «Con chi devo uscire stasera?» oppure «Che cosa posso scrivere in questa relazione urgente?».
Le cose purtroppo non stanno più così, a causa degli LLM usati come oracoli. Cosa comporta l'introduzione nell'informatica di oggi degli LLM? Semplicemente l'introduzione in ogni dove di scatole nere usate come oracoli, che forniscono risposte credibili non esatte, che poi cerchiamo di puntellare complicando ulteriormente il sistema informatico, modificando le domande indesiderate e cercando di eliminare le risposte credibili ma errate. Non è un modo di procedere ragionevole. Non è un modo di procedere affidabile. Ma l'effetto Eliza è potente e la gente lo fa.
Perché questo accade? Per i soldi? Per il potere? Certamente, ma anche questa è una risposta a livello pratico; quale è la risposta allo stesso livello filosofico della precedente? Ecco, questo è il problema che ha occupato per un bel po' Cassandra, ormai annoiata, anzi disgustata, di dover esternare su questioni pratiche e spicciole che alla fine «ben capitorno a gente meccaniche, e di piccol affare». Perché sta succedendo questo? Quale è la causa motrice comune dietro ciascuna delle questioni create dalle false intelligenze artificiali? Cassandra ha lentamente, molto lentamente, forse troppo lentamente trovato una risposta, e la risposta è così semplice da sembrare deludente; la risposta è produttività. La potete chiamare anche voglia di non lavorare oppure desiderio di non pagare i lavoratori, state parlando della stessa cosa.
State pensando allo studente col cervello in pappa che non ha voglia di fare i compiti, al professionista che non sa scrivere la relazione che deve consegnare entro la sera, a chi deve prendere decisioni importanti ma deve anche salvarsi il c..o. Generalizzata, sempre della stessa questione si tratta. Produttività. Tutto qui. È questo che spiega tutti i problemi causati dagli LLM. Permettono, a qualsiasi livello, di essere apparentemente più produttivi. Ma torniamo alla questione principale. Possiamo sopravvivere a questa tendenza epocale? Possiamo convivere con gli LLM usati come oracoli per essere più produttivi? Possiamo convivere con computer che sbagliano?
Dipende da molte cose, ma negli ultimi millenni l'umanità è sopravvissuta, magari in modo non piacevole per molti esseri umani, a gravi errori; per esempio all'incompetenza dei capi, oppure a oracoli (veri) che a domande precise rispondevano con risposte interpretabili, in cui il significato veniva messo da chi aveva posto la domanda. «Ibis redibis non morieris in bello». Importanza della virgola che non c'è! Proprio come nelle risposte di un LLM. Ma lasciamo perdere il latinorum e andiamo avanti, doverosamente dato il ruolo di profetessa che Cassandra esercita. Chiediamoci adesso se questa tendenza è contrastabile.
È possibile convivere con sistemi informatici che per progetto possono sbagliare? La risposta è un no deciso, ma non per i motivi che potreste pensare. Non perché il ponte progettato da un LLM nello studio di un ingegnere crollerà. Non perché il chirurgo robot squarterà il paziente invece di togliergli l'appendice. Non perché il politico di turno attuerà piani di sviluppo della città nella zona di una caldera vulcanica destinata a esplodere. No, secondo Cassandra la conseguenza a cui non possiamo sopravvivere è la corruzione della parte immortale dell'umanità, della sua cultura. Non possiamo sopravvivere all'inquinamento e alla corruzione dell'infosfera, inevitabile in una situazione in cui i nuovi e abbondanti contributi non verranno più dalla competenza di esseri umani ma dalle produzioni credibili di LLM e oggetti simili. Quindi la risposta è davvero un no deciso, non possiamo convivere con computer che sbagliano.
L'Antropocene, nel bene e nel male, è stato reso possibile non dalla natura benigna o dall'accumulazione del capitale, ma dall'accumulazione del sapere in forma conservabile. Questa è la cosa essenziale da proteggere, il vero e difficilissimo problema che dobbiamo affrontare fin da subito, anche (ma non solo) guidando lo sviluppo dell'intelligenza artificiale in direzioni meno pericolose, più sane e più utili di quelle attuali. La finanza ce lo permetterà?
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
Scrivere a Cassandra - Twitter - Mastodon
Videorubrica "Quattro chiacchiere con Cassandra"
Lo Slog (Static Blog) di Cassandra
L'archivio di Cassandra: scuola, formazione e pensiero
|
||
|