Chi vuole opporsi deve agire personalmente sulle impostazioni.
[ZEUS News - www.zeusnews.it - 30-08-2025]
A partire dal 28 settembre Anthropic, l'azienda dietro il modello di intelligenza artificiale Claude, implementerà una nuova politica che consente l'utilizzo dei dati degli utenti, come trascrizioni di chat e sessioni di programmazione, per addestrare i suoi modelli di intelligenza artificiale. La decisione, annunciata attraverso un post sul blog aziendale, segna un cambiamento significativo rispetto alla precedente politica di non utilizzare i dati degli utenti senza un consenso esplicito. La novità è che gli utenti possono scegliere di non partecipare, optando per l'esclusione tramite le impostazioni di privacy.
Secondo quanto riportato, la nuova politica si applica esclusivamente ai prodotti consumer di Anthropic come Claude Free, Claude Pro e Claude Max, inclusi i casi in cui gli utenti utilizzano Claude Code con questi account. I prodotti commerciali come Claude for Work, Claude Gov, Claude for Education o l'API di Anthropic (utilizzata tramite piattaforme come Amazon Bedrock e Google Cloud's Vertex AI) non sono soggetti a questa modifica. Per gli utenti, l'addestramento dei modelli riguarderà solo le nuove conversazioni o sessioni di coding avviate o riprese dopo l'entrata in vigore della policy, lasciando intatti i dati delle interazioni precedenti non riprese. Anthropic ha esteso il periodo di conservazione dei dati da 30 giorni a un massimo di cinque anni per gli utenti che acconsentono all'utilizzo dei loro dati: è un cambiamento che consente all'azienda di sfruttare interazioni reali per affinare le capacità di Claude, per esempio nel debugging di codice o nella generazione di risposte più accurate.
Gli utenti, sia nuovi che esistenti, dovranno esprimere la loro preferenza entro il 28 settembre. I nuovi utenti troveranno l'opzione durante il processo di registrazione a Claude, mentre gli utenti attuali riceveranno una notifica pop-up con il titolo Aggiornamenti ai Termini e alle Politiche per i Consumatori. Il pop-up include un interruttore preimpostato su On per consentire l'uso dei dati, con un pulsante Accetta ben visibile. Questo design ha suscitato preoccupazioni, poiché alcuni utenti potrebbero cliccare Accetta senza leggere attentamente o modificare l'impostazione. Per chi desidera escludersi è possibile cambiare la preferenza nelle impostazioni di privacy, sotto la sezione Aiuta a migliorare Claude, spostando l'interruttore su Off. Una volta che i dati sono stati utilizzati per l'addestramento non è possibile revocarne l'uso retroattivamente, anche se le modifiche alle impostazioni si applicheranno ai dati successivi.
Anthropic non è l'unica ad adottare questo approccio: altre aziende, come Google con Gemini e Meta con il suo assistente IA, hanno adottato politiche simili di opt-out, ponendo l'onere della scelta sugli utenti. Google ha annunciato una politica analoga per Gemini effettiva dal 2 settembre 2025 che include dati come file caricati, foto e video. Tuttavia Anthropic si distingue per il suo passato impegno verso la privacy, essendo stata fondata nel 2021 da ex ricercatori di OpenAI con un focus sulla sicurezza e l'etica nell'IA. Pur mantenendo garanzie come la crittografia dei dati in transito e a riposo, la decisione di passare a un modello di opt-out vuol rappresentare un compromesso strategico per competere in un mercato in cui i dati degli utenti sono una risorsa cruciale per migliorare i modelli.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
||
|