512.000 linee di codice esposte per errore.
[ZEUS News - www.zeusnews.it - 02-04-2026]

Il codice sorgente completo di Claude Code, il tool CLI di Anthropic per lo sviluppo assistito da AI, è trapelato online a causa di un file source map incluso per errore in una versione pubblicata sul registro npm. L'incidente ha esposto oltre 512.000 linee di codice TypeScript, rendendo accessibile l'intera architettura interna dell'applicazione, pur senza coinvolgere i modelli o dati sensibili degli utenti.
La versione coinvolta è la 2.1.88, pubblicata il 31 marzo 2026. All'interno del pacchetto era presente un file cli.js.map che puntava a un archivio ospitato su un bucket pubblico Cloudflare R2. Il file, di circa 59 MB, conteneva riferimenti completi al codice originale, permettendo la ricostruzione integrale del progetto. La scoperta è stata segnalata dal ricercatore Chaofan Shou, che ha pubblicato il riferimento su X. Il codice trapelato comprende circa 1.900 file TypeScript, tra cui moduli chiave come il Query Engine (46.000 linee), responsabile della gestione delle chiamate ai modelli, dello streaming delle risposte e dell'orchestrazione interna. È presente anche il sistema dei tool, un'architettura modulare che definisce circa 40 strumenti agentici con permessi specifici, come esecuzione di comandi Bash, lettura di file e integrazione con LSP.
Tra le funzionalità interne emerse figura un sistema di orchestrazione multi‑agente, che consente a Claude Code di generare "sciami" di agenti paralleli per gestire task complessi. Il codice rivela inoltre un IDE Bridge che collega il terminale alle estensioni per editor come VS Code e JetBrains tramite canali autenticati JWT. Sono emerse anche funzionalità non documentate, come la modalità Undercover, che istruisce il sistema a evitare riferimenti ad Anthropic nei commit pubblici, e un modulo denominato KAIROS, progettato per consentire al tool di operare in background come agente persistente, eseguendo attività periodiche senza input umano.
Il leak non riguarda i modelli di intelligenza artificiale né i dati degli utenti, come confermato da Anthropic, che ha attribuito l'incidente a un errore umano; sono anche state avviate misure correttive per evitare che simili problemi si ripetano.
Il repository ricostruito è stato rapidamente replicato su GitHub, raggiungendo decine di migliaia di fork. La diffusione capillare rende di fatto impossibile la rimozione completa del materiale, nonostante i rischi legali per chi ne riutilizza parti in violazione della licenza proprietaria. Il caso ha attirato l'attenzione anche per il contesto: Anthropic è considerata una delle realtà più attente alla sicurezza operativa. L'incidente, avvenuto tramite un semplice file di debug lasciato nel pacchetto di produzione, ha alimentato critiche sulla gestione interna dei processi di build e distribuzione.
|
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
|
||
|
