Eliza colpisce ancora (2)
[ZEUS News - www.zeusnews.it - 02-07-2025]
Questo è un articolo su più pagine: ti invitiamo a leggere la pagina iniziale
Eliza colpisce ancora
Sintetizzando, l'IA fatta di LLM e venduta in questo modo è solo fuffa. Perché? Perché vende un prodotto disonesto fin dall'origine e inutile allo scopo per cui viene venduto, cioè dare risposte. Perché descrive, volutamente e in maniera fuorviante, il funzionamento dell'IA in termini di intenzionalità, con termini sempre antropomorfizzanti, invece che descrivendoli solo come potenti strumenti per elaborare il linguaggio. Antropomorfismo per meglio nascondere che si tratta di generatori di discorsi a caso. Generatori di discorsi a caso che vengono poi allineati utilizzando circuiti censori in ingresso e in uscita, in modo che non rispondano a domande scomode e non diano risposte scomode (ho detto volutamente scomode, non "errate"). Poi anche per tentare di intercettare le risposte più pericolose. Ma gli LLM sono ormai stati allenati con tutti i testi esistenti al mondo.
In passato il loro output è stato migliorato aumentandone le dimensioni. Ma oggi gli LLM non possono più aumentare in dimensione, semplicemente perché non ci sono altre informazioni da fornirgli. Sostanzialmente gli abbiamo già dato da mangiare l'intera Infosfera. E le nuove informazioni che vengono oggi create non possiamo dargliele, perché sono quasi tutte generate proprio dalle IA. È infatti dimostrato oltre ogni dubbio che le informazioni scritte dalle IA sono per loro un cibo tossico, che le fa degenerare e collassare. Ma allora perché siamo in questa situazione? Un complotto plutocratico? Una corsa agli armamenti digitale? E perché le grandi dotcom (Meta, Google, Microsoft, Telegram) stanno infilando chatbot IA dappertutto senza che nessuno glielo richieda, e spesso gratis?
In realtà una spiegazione dello stato attuale dell'IA fatta con gli LLM è possibile esaminandola sul piano finanziario. Parliamo per esempio di OpenAI e Sam Altman. OpenAI ha fatto un passivo di 5 miliardi nel 2024. Anthropic più o meno lo stesso. Pozzi senza fondo, dove il denaro che potrebbe essere speso per cose ben più utili sparisce senza lasciare traccia. Altman ha recentemente comunicato agli investitori che non farà profitti prima del 2029 e che per allora dovrà spendere altri 40 miliardi. Poi, vedi caso, annuncia la prossima cosa meravigliosa; un ancora misterioso device per l'IA che realizzerà insieme all'ex-designer di Apple Joni Ive. Queste di OpenAI e quelle equivalenti di Anthropic e degli altri sono azioni di distrazione di massa, fatte per continuare a tenere eccitati gli investitori che devono (lo dice la parola stessa) continuare a investire.
Due ultime cose, le più importanti, per concludere. La prima: non disperatevi. Potete usare tranquillamente gli LLM per abbellire i vostri testi e tradurre le vostre email (ma rileggete sempre il risultato). In questo sono strumenti potenti e utilissimi. Al contrario, non usateli mai per realizzare una bozza di un documento o di una perizia; risparmierete tempo ma compirete un lento e talvolta veloce suicidio professionale. La seconda: Cassandra voleva terminare affrontando la questione di quanto il nostro stesso giudizio sull'utilizzo degli LLM possa essere inconsciamente condizionato proprio dal loro uso. Ha però trovato un post di Baldur Bjarnason, che su questo argomenta in maniera davvero molto accurata, certamente migliore di quella di Cassandra, arrivando alle stesse conclusioni. La modestia, oppure la pigrizia, hanno vinto, perciò ne trovate la traduzione qui sotto.
È quasi impossibile per le persone valutare i benefici o i danni di chatbot e agenti attraverso l'auto-sperimentazione. Questi strumenti innescano una serie di pregiudizi ed effetti che offuscano il nostro giudizio. I modelli generativi presentano inoltre una volatilità dei risultati e una distribuzione non uniforme dei danni, simili a quelle dei prodotti farmaceutici, il che significa che è impossibile scoprire autonomamente quale sarà il loro impatto sociale o persino organizzativo. La ricerca in ambito tecnologico, software e produttività è estremamente scarsa e si limita per lo più a mero marketing, spesso replicando le tattiche dei settori dell'omeopatia e della naturopatia. La maggior parte delle persone nel settore tecnologico non ha la formazione necessaria per valutare il rigore o la validità degli studi nel proprio campo. (Potreste non essere d'accordo, ma vi sbagliereste.)
L'enorme portata della bolla dell'IA e la quasi totalità del consenso istituzionale — università, governi, istituzioni — implica che tutti siano di parte [anche io e voi, NdT]. Ed anche se non lo siete voi stessi, lo saranno il vostro manager, la vostra organizzazione o i vostri finanziatori. Persino coloro che cercano di essere imparziali sono intrappolati in istituzioni che gonfiano la bolla e sentiranno il bisogno di proteggere la propria carriera, anche se solo inconsciamente. Ancora più importante, non c'è modo per il resto di noi di conoscere l'entità dell'effetto che la bolla ha sui risultati di ogni singolo studio o articolo, quindi dobbiamo presumere che li influenzi tutti. Anche quelli realizzati dai nostri amici. Anche gli amici possono essere di parte.
La bolla significa anche che non ci si può fidare assolutamente della classe dirigente e manageriale. A giudicare dalle precedenti bolle speculative, sia nel settore tecnologico che in quello finanziario, le persone oneste che capiscono cosa sta succedendo ne sono quasi certamente già uscite. Quando comprendiamo qualcosa solo a metà, chiudiamo il cerchio dall'osservazione alla convinzione affidandoci al giudizio dei nostri pari e delle figure autorevoli, ma questi gruppi nel settore tecnologico sono attualmente quasi certamente in errore o sostanzialmente di parte riguardo ai modelli generativi. Questa è una tecnologia praticamente fatta su misura per essere compresa solo a metà dalla tecnologia in generale. Ne afferrano le basi, forse alcuni dettagli, ma non completamente. La "metà" della loro comprensione lascia uno spazio cognitivo che consente a quella convinzione mal fondata di adattarsi a qualsiasi altra convinzione la persona possa avere e a qualsiasi contesto in cui si trovi senza conflitti.
Combinando questi quattro problemi, abbiamo la ricetta per quella che è di fatto una superstizione omeopatica che si sta diffondendo a macchia d'olio in una comunità in cui tutti si convincono che li renda più sani, più intelligenti, più veloci e più produttivi. Questo sarebbe un male in qualsiasi circostanza, ma i danni che i modelli generativi arrecano all'istruzione, all'assistenza sanitaria, ai vari servizi sociali, alle industrie creative e persino alla tecnologia (ad esempio, l'eliminazione delle posizioni di programmazione entry-level significa la mancanza di programmatori senior in futuro) si stanno configurando come enormi; i costi per gestire questi specifici tipi di modelli rimangono molto più alti dei ricavi e l'infrastruttura necessaria per realizzarli sta soppiantando i tentativi di transizione energetica in paesi come Irlanda e Islanda.
Se mai è esistita una tecnologia per la quale l'atto razionale e responsabile è stato quello di aspettare e aspettare che la bolla scoppiasse, quella è proprio l'IA.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
Scrivere a Cassandra - Twitter - Mastodon
Videorubrica "Quattro chiacchiere con Cassandra"
Lo Slog (Static Blog) di Cassandra
L'archivio di Cassandra: scuola, formazione e pensiero
|
||
|
Homer S.