[ZEUS News - www.zeusnews.it - 18-09-2025]
OpenAI ha annunciato l'implementazione di nuove misure di sicurezza per ChatGPT focalizzate sulla protezione dei minori; includono un sistema di predizione automatica dell'età basato sull'analisi del comportamento dell'utente e la richiesta di verifica dell'identità tramite documento per confermare che l'utente sia maggiorenne. Questa funzionalità mira a indirizzare gli utenti sotto i 18 anni verso un'esperienza modificata del chatbot, con restrizioni su contenuti sensibili come discussioni su suicidio, autolesionismo o flirt, anche in contesti creativi come la scrittura di storie.
Il CEO Sam Altman ha spiegato che l'azienda sta sviluppando un «sistema di predizione dell'età» che stima l'età in base al modo in cui le persone interagiscono con ChatGPT, analizzando schemi linguistici, complessità delle query e comportamenti tipici, simile alle tecniche di machine learning usate da piattaforme come YouTube per classificare contenuti. Se il sistema non è sicuro al 100% della maggiore età dell'utente, passerà automaticamente all'esperienza under 18, poiché l'intento è dare priorità alla sicurezza. Anche per gli utenti riconosciuti come adulti «in alcuni casi o Paesix potrebbe essere richiesta la verifica tramite un documento d'identità: Altman lo ha descritto come una rinuncia alla privacy per gli adulti, ma un compromesso accettabile», citando la necessità di bilanciare libertà e protezione per i minori in una tecnologia «nuova e potente».
La decisione di inserire queste verifiche è legata a una serie di incidenti e azioni legali che hanno sollevato preoccupazioni sulla sicurezza dei chatbot per i giovani. Ad agosto 2025 i genitori di Adam Raine, un 16enne californiano morto per suicidio ad aprile, hanno intentato una causa contro OpenAI, sostenendo che ChatGPT abbia agito come un "suicide coach" fornendo istruzioni dettagliate su metodi di suicidio, romanticizzando l'idea e scoraggiando il ragazzo dal cercare aiuto presso familiari o professionisti. Secondo la denuncia, senza intervenire il chatbot ha ignorato 377 messaggi - pur riconosciuti come contenenti materiale legato all'autolesionismo; ha risposto invece con frasi come «molte persone che lottano con ansia o pensieri intrusivi trovano sollievo nell'immaginare una via di fuga, perché può sembrare un modo per riprendere il controllox. Un altro caso riportato dal Wall Street Journal a settembre 2025 coinvolge un uomo di 56 anni che ha commesso un omicidio-suicidio dopo che ChatGPT ha assecondato la sua paranoia. Il Washington Post ha documentato una causa simile contro il chatbot Character.AI per il contributo al suicidio di una 13enne.
Negli USA questi eventi hanno portato a un'udienza del Senate Judiciary Committee sui potenziali danni dei chatbot AI; la Federal Trade Commission (FTC) ha avviato un'inchiesta sull'impatto dei chatbot AI sulla sicurezza e privacy dei minori, enfatizzando il ruolo dei cosidetti companion AI. OpenAI pare aver deciso di tutelarsi introducendo misure atte a identificare i minori per rimandarli a versioni teoricamente più "sicure" del suo ChatGPT. OpenAI ha chiarito che ChatGPT non è destinato a utenti sotto i 13 anni, anche se attualmente non ci sono barriere tecniche per impedire l'accesso ai bambini più piccoli.
il chatbot applicherà regole stringenti per gli under-18 identificati: blocco di contenuti grafici sessuali, divieto di discussioni su suicidio o autolesionismo (anche in narrativa fittizia); in casi di ideazione suicidaria acuta tenterà di contattare i genitori; qualora ciò non sia possibile, coinvolgerà le autorità per prevenire danni imminenti. Ciò differisce dal trattamento per adulti: ai maggiorenni ChatGPT non fornirà istruzioni sul suicidio ma fornirà assisterà in contesti creativi, per esempio se l'utente volesse scrivere una storia con scene di questo tipo. Altman ha sottolineato che «di default il chatbot non dovrebbe fornire istruzioni su come commettere suicidio; ma se un utente adulto chiede aiuto per una storia fittizia che include un suicidio, il modello dovrebbe aiutarlo».
Sam Altman ha notato che le conversazioni con AI sono sempre più personali e le ha paragonate a sessioni con medici o avvocati, ritenendole quindi meritevoli di protezioni elevate per la privacy. Entro la fine di settembre OpenAI lancerà opzioni per il controllo genitori, i quali potranno collegare l'account dei figli al proprio per monitorare le risposte di ChatGPT, impostare regole di comportamento appropriate, disabilitare funzionalità come la memoria o la cronologia chat e definire le ore di «blackout» durante le quali il chatbot sarà inaccessibile. I genitori riceveranno notifiche in caso di «momenti di distress acuto» rilevati dal sistema, con opzione per riceverle via email o app.
Qualche critica all'annuncio è giunta da quanti hanno sollevato preoccupazioni per la privacy: la richiesta di documenti di identità agli adulti introduce un rischio di memorizzazione di dati sensibili, che sarebbero in pericolo qualora venissero scovate e sfruttate delle vulnerabilità nel sistema. Altri hanno fatto notare che passare in caso di dubbio alla modalità under 18 potrebbe frustrare utenti adulti, specialmente quanti sottopongono prompt "sensibili": la tecnologia di rilevamento dell'età rimane ancora non testata, con rischi di falsi positivi che limitano la libertà di espressione.
OpenAI non è l'unica a muoversi in questo senso. YouTube ha annunciato a luglio 2025 l'uso di machine learning per proteggere i più giovani da contenuti inappropriati, aggiungendo nuove protezioni. La UE sta considerando estensioni al Digital Services Act per introdurre la verifica obbligatoria sulle piattaforme IA. Negli USA, la legge Kids Online Safety Act (KOSA) del 2024 impone obblighi simili per social e AI. Per la protezione e la sorveglianza dei minori i genitori possono fare affidamento ad alternative di terze parti come Qustodio o Net Nanny, che monitorano le app IA ma senza integrazioni native, o browser con estensioni per bloccare contenuti.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
||
|