[ZEUS News - www.zeusnews.it - 05-04-2026]

Il recente leak del codice sorgente di Claude Code ha rivelato un dato curioso: il tool di sviluppo di Anthropic analizza sistematicamente i messaggi degli utenti alla ricerca di parolacce e indicatori di frustrazione, utilizzando un semplice sistema basato su espressioni regolari. La funzione è stata individuata in un file denominato userPromptKeywords.ts, incluso tra le oltre 500.000 linee di codice trapelate online.
L'analisi del file mostra che Claude Code esegue una scansione di ogni messaggio inviato dall'utente, confrontandolo con una lista di parole e frasi considerate segnali di irritazione. Tra queste compaiono abbreviazioni come «wtf», «wth» insulti diretti, espressioni volgari e frasi come «this sucks» («fa schifo») o «screw this». Il sistema non utilizza modelli linguistici avanzati per questa operazione, ma un semplice controllo testuale tramite regex.
La funzione è stata individuata esclusivamente nel codice di Claude Code, non nelle versioni desktop o web dell'assistente. Il leak non include infatti i componenti relativi alle interfacce principali, rendendo impossibile stabilire se un monitoraggio analogo sia presente anche in quelle piattaforme. Le fonti sottolineano che il rilevamento riguarda solo lo strumento a linea di comando. Oltre al sistema di rilevamento delle parolacce, il codice trapelato contiene riferimenti a funzionalità come una modalità undercover (sotto copertura), progettata per permettere al tool di contribuire a repository pubblici senza rivelare la propria origine, e un agente sempre attivo capace di operare in background. Questi elementi confermano che Claude Code è progettato come un sistema complesso e modulare.
Il monitoraggio delle parole chiave non sembra essere collegato a finalità punitive o di filtraggio dei contenuti. Anthropic potrebbe utilizzare questi segnali per identificare momenti di frustrazione dell'utente, utili per migliorare l'esperienza d'uso o per rilevare problemi ricorrenti nelle risposte del modello. Tuttavia il codice non specifica come vengano utilizzati i dati raccolti. Il sistema di rilevamento è implementato tramite una lista statica di termini, senza analisi semantica o contestuale. Ciò significa che il tool non distingue tra un insulto rivolto al modello e un uso neutro della stessa parola in un contesto tecnico o descrittivo. La scelta di una soluzione così semplice è probabilmente legata alla necessità di ridurre il carico computazionale.
Anthropic non ha rilasciato dichiarazioni specifiche sulla funzione di rilevamento delle parolacce, ma ha soltanto ribadito che il codice trapelato non include componenti dei modelli né dati sensibili degli utenti.
|
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
|
||
|
