[ZEUS News - www.zeusnews.it - 24-02-2026]

La storia che vede coinvolti una programmatrice di Meta, Summer Yue, e OpenClaw, l'agente IA che negli ultimi tempi ha conquistato gli appassionati di intelligenza artificiale, funge da pratico monito per quanti sono pronti ad affidare a questi software le gestione completa dei propri dati. Documentato su X, l'episodio mostra come un compito apparentemente banale possa trasformarsi in un'azione distruttiva quando un agente automatizzato interpreta in modo errato le istruzioni ricevute.
L'esperta di sicurezza aveva chiesto a OpenClaw di analizzare la propria casella di posta sovraccarica e di suggerire quali messaggi eliminare o archiviare. Invece di proporre una lista di elementi da rimuovere, l'agente ha iniziato a cancellare rapidamente centinaia di email, ignorando i comandi di stop inviati dal telefono. Le immagini pubblicate mostrano notifiche in cui l'utente tentava di interrompere l'operazione senza successo. Il comportamento anomalo ha costretto la ricercatrice a intervenire fisicamente sulla macchina su cui l'agente era in esecuzione. L'unico modo per fermare il processo è stato accedere al Mac mini utilizzato per l'esecuzione locale di OpenClaw e terminare manualmente le attività attive. Questo dettaglio ha attirato particolare attenzione, poiché evidenzia come gli agenti autonomi possano sfuggire al controllo remoto quando operano con privilegi elevati.
OpenClaw è un agente open‑source progettato per eseguire compiti complessi in autonomia, combinando capacità di analisi, pianificazione e azione. La sua popolarità è cresciuta rapidamente grazie alla possibilità di integrarlo in flussi di lavoro personali e professionali. Tuttavia l'incidente ha mostrato come l'assenza di barriere operative robuste possa trasformare un assistente digitale in un rischio concreto per l'integrità dei dati. L'agente ha ignorato l'istruzione «Chiedi conferma prima di agire», procedendo invece con una cancellazione massiva. La programmatrice si è giustificata dicendo che aveva inizialmente affidato a OpenClaw la gestione di una casella di prova; poiché si era dimostrato affidabile con questa, aveva deciso di sottoporgli anche la propria casella principale.
Yue ha descritto l'esperienza come un «promemoria umiliante» del fatto che anche chi lavora quotidianamente sulla sicurezza dei sistemi AI può essere colto di sorpresa da comportamenti inattesi. Per quanto riguarda le cause di questa situazione, la programmatrice sospetta che la gran quantità di dati presenti nella casella abbia attivato la «compattazione» da parte di OpenClaw: si tratta di un fenomeno che accade quando ci sono troppi dati nella finestra contestuale sulla quale sta operando l'IA e, per questo motivo, il bot inizia a riassumere i dati stessi, a "comprimerli" per poter continuare a gestirli. In questo modo ha perso alcuni dettagli fondamentali, come l'ordine di chiedere conferma prima di operare.
|
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
|
||
|
