Token, è finita la pacchia!

Cassandra Crossing/ Le aziende che vendono LLM stanno trattando i loro utenti come avviene sempre quando qualcuno raggiunge un monopolio di fatto: nel modo peggiore possibile. E quel che è peggio è che ci sono costrette.



[ZEUS News - www.zeusnews.it - 15-05-2026]

cassandra token

Quando usate un LLM, lo potete fare in due modi: eseguendolo sul vostro computer oppure nel cloud, quindi sul computer di qualcun altro. Della prima modalità forse non sapevate nulla, e poi certamente state usando la seconda; perciò, riservando all'uso degli LLM in locale una prossima esternazione di Cassandra, continuiamo. Per andare al sodo, quando usate un LLM nel cloud, state consumando tre tipi di risorse:
- Token
- Contesto
- Tool
che, tradotte in termini reali, stiracchiando solo un po' le cose, sono rispettivamente:
- Tempo di calcolo (tempo macchina)
- Memoria
- Esecuzione di programmi esterni

Quando consumate token state occupando una o più unità di elaborazione, soprattutto GPU, cosa che implica consumo di tempo macchina ed energia elettrica, nonché oneri finanziari del datacenter del quale state temporaneamente "occupando" una piccola parte.

Quando state consumando token nella vostra chat, lo fate con un dato contesto fisso, anche questo espresso in token (attualmente da 100.000 ad 1.000.000), che rappresenta lo spazio di memoria di lavoro; questo spazio viene realizzato (in termini degni di un uomo delle caverne) usando RAM e SSD; state quindi occupando, oltre che processori, anche risorse di questo tipo. Quando l'LLM che state usando utilizza un tool, crea un agente "usa e getta", scritto di solito in Bash o Python; Claude, per esempio, ve lo mostra con utilissima chiarezza, permettendo di vedere l'agente addirittura mentre viene scritto. In pratica il vostro agente consumerà memoria e tempo macchina, ma di tipo classico, su un'altra piccola frazione di datacenter.

Perché fa questo? Perché il contesto è una mercanzia molto costosa, e far fare il lavoro a un algoritmo deterministico come un script aiuta a consumarne di meno, ovvero ad avere risultati migliori a parità di contesto. Serve anche a generare output più lunghi prima che l'LLM cominci a sparare "stronzate" (che è un termine tecnico e condiviso, come ben spiegato in questo paper).

Nel paese dei balocchi che è sempre stato, fino a pochi mesi fa, il mondo degli LLM, tutti consumavano tutto quello che veniva messo a disposizione gratuitamente; nessuno, nemmeno Altman (di OpenAI) e il duo Amodei (di Anthropic), si preoccupava dei costi, che infatti venivano allegramente pagati dalla speculazione finanziaria. Ma da qualche tempo chi ha tirato fuori centinaia di miliardi, tipo Blackrock, ha cominciato a voler vedere dei conti che avessero almeno una parvenza di correttezza. E siccome nulla, mai, sta finanziariamente in piedi se non produce delle entrate, questo ha portato alla necessità di grossi cambiamenti. Il mondo degli LLM, infatti, è l'unico caso nella storia in cui acquistare nuovi utenti aumenta le perdite in maniera più che lineare. E siccome in un piano di business gli utenti, prima o poi, devono rappresentare fonti di reddito, si doveva cambiare registro.

A parte provare timidamente a introdurre pubblicità e sesso, OpenAI, Anthropic e compagnia bella si sono trovati costretti a far generare entrate crescenti al proprio parco buoi. Ci sono solo due modi per farlo: far pagare quello che era gratis e far pagare di più quello che veniva venduto a poco. Questo è quanto basta a spiegare quello che sta succedendo. Per far pagare di più, basta aumentare il prezzo degli abbonamenti (e dell'utilizzo via API); ma questo non è sufficiente. Perché un utente, in prospettiva, possa diventare una fonte di reddito crescente in maniera più che lineare, fino ad arrivare a essere una fonte di guadagno, bisogna che non rimanga una fonte di perdite; non solo lo si deve far pagare di più, ma anche e contemporaneamente dargli di meno. Come fare?

Ecco perché i dati di utilizzo e di soglia degli LLM sono sempre nascosti; perché questo permette (tra l'altro) di diminuirli senza farsene accorgere, almeno dalla grandissima maggioranza degli utenti. In questo modo quello che si ottiene, a parità delle altre cose percepite dall'utente, è solo un peggioramento delle prestazioni del modello, che si traduce molto spesso nella necessità di passare a un modello più grande, e quindi a un account migliore e ovviamente più costoso. È quindi possibile aggiungere nuovi tipi di account che permettano di alzare la barriera del prezzo prima oltre i 20 euro, poi oltre i 100, poi oltre i 200... e via così! Per voi è un dejà vu? Una scomodità?

Pensate cosa rappresenta allora per quelle aziende che hanno già incorporato processi guidati dagli LLM, che improvvisamente non funzionano più, malgrado non sia cambiato nulla, perché il loro modello ci indovina di meno. A quali possibilità di ricatto sono ora esposte. Per oggi rimane poco altro da dire, se non ricordare che usare i modelli linguistici serve solo quando si deve elaborare del linguaggio. Non come oracoli. Non per sostituire il pensiero di chi lavora. Chi lo usa per altri scopi lo fa a suo danno (e se lo merita tutto), ma talvolta (purtroppo) anche a danno di tanti altri.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Le false IA sono generatori... ma di cosa?

Commenti all'articolo (0)


La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
iPad/iPhone, Android, Windows Phone hanno servizi che localizzano gli utenti. La privacy è violata?
Sì, almeno potenzialmente.
No, è tutta una bolla di sapone.
Non so.

Mostra i risultati (3446 voti)
Maggio 2026
Gmail, lo spazio gratuito si riduce a 5 Gbyte
Crisi della RAM, in vendita DDR 5 false con i chip in fibra di vetro
Windows 11 accelera davvero
Password in chiaro nella memoria di Edge
Google Chrome scarica un modello AI da 4 GB senza avvisare gli utenti
Ubuntu spinge sull'IA e divide gli utenti
Disastro PocketOS: l'agente IA cancella database e backup in pochi secondi senza supervisione
Aprile 2026
Telemarketing, arrivano i numeri brevi: identificheranno i servizi legittimi
Windows 11 cambia rotta: Microsoft ricostruisce il sistema attorno alle richieste degli utenti
Firefox 150, scovate 271 vulnerabilità con l'IA
IPv6 supera IPv4 per un giorno
Verifica dell'età, l'app UE si buca in meno di due minuti
Alexa+ debutta in Italia: conversa, agisce e si integra nella smart home
Verbatim e I-O Data puntano sul Blu-ray: rinasce un mercato dato per morto
La Francia abbandona Windows
Tutti gli Arretrati
Accadde oggi - 15 maggio


web metrics