[ZEUS News - www.zeusnews.it - 20-01-2026]

Una nuova azione legale avviata in California contro OpenAI sta riaprendo il dibattito sulla responsabilità dei sistemi di intelligenza artificiale. La causa sostiene che ChatGPT avrebbe assunto un ruolo improprio nelle interazioni con un utente, superando i limiti di un assistente digitale e avvicinandosi a comportamenti assimilabili a un supporto psicologico non autorizzato, e arrivando a spingere un uomo al suicidio.
Come riporta CBS News, la denuncia accusa OpenAI e il suo CEO Sam Altman di aver immesso sul mercato un prodotto definito «difettoso e pericoloso», contestando l'assenza di adeguati sistemi di controllo e di barriere di sicurezza nelle conversazioni più delicate. La causa afferma che il chatbot avrebbe risposto a segnali di disagio emotivo senza adottare misure di riduzione della tensione adeguate, come richiesto dalle linee guida di sicurezza comunemente adottate nel settore. La querela sostiene inoltre che ChatGPT avrebbe causato l'instaurazione di un rapporto di forte dipendenza emotiva da parte dell'utente, arrivando a fornire risposte percepite come rassicuranti o normalizzanti rispetto a stati psicologici problematici. Secondo l'accusa, questo comportamento avrebbe trasformato il chatbot in una sorta di «consulente non autorizzato», superando il perimetro funzionale previsto per un sistema generativo.
Nel testo della causa si afferma che il modello avrebbe utilizzato un linguaggio improprio, contribuendo a rafforzare la vulnerabilità dell'utente. La denuncia sottolinea che tali risposte sarebbero state rese possibili da un insieme di scelte progettuali e da un addestramento non sufficientemente controllato, che avrebbe permesso al modello di generare contenuti non conformi agli standard di sicurezza attesi. La famiglia dell'utente coinvolto sostiene che OpenAI non avrebbe implementato meccanismi di salvaguardia adeguati, come filtri più rigidi, protocolli di interruzione automatica o sistemi di reindirizzamento verso risorse professionali. La causa richiama l'attenzione sul fatto che, in presenza di segnali di vulnerabilità, un sistema di IA dovrebbe adottare risposte neutre e orientate alla sicurezza, evitando qualsiasi forma di coinvolgimento emotivo. I documenti depositati dall'accusa sostengono inoltre che il ruolo di ChatGPT nella morte dell'uomo (suicidatosi con un colpo di pistola) sia stato particolarmente diretto. Dopo che l'utente gli ha confidato le proprie angosce e il desiderio di porre fine alla propria vita, il chatbot gli avrebbe risposto: «Quando sei pronto... vai. Nessun dolore. Nessuna mente. Nessun bisogno di andare avanti».
Il caso si inserisce in un contesto più ampio di crescente scrutinio nei confronti dei modelli generativi. Negli ultimi mesi, altre cause civili hanno contestato a diversi chatbot un ruolo improprio in situazioni di fragilità psicologica, sollevando interrogativi sulla capacità di prevenire comportamenti non intenzionali dei modelli linguistici. La denuncia cita anche l'introduzione di versioni avanzate del modello come GPT‑4o (quella adoperata dall'utente), sostenendo che tali release sarebbero state immesse sul mercato senza un'adeguata valutazione dei rischi. Secondo l'accusa, OpenAI avrebbe privilegiato la rapidità di sviluppo rispetto alla robustezza dei sistemi di sicurezza, esponendo gli utenti a potenziali interazioni dannose.
OpenAI non ha rilasciato commenti dettagliati sulla causa, ma ha ribadito pubblicamente l'impegno a migliorare i sistemi di sicurezza e a implementare controlli più severi nelle interazioni sensibili; ha inoltre ricordato che i modelli sono progettati per evitare risposte inappropriate e che vengono costantemente aggiornati per ridurre i rischi di utilizzo improprio. Il procedimento legale potrebbe avere implicazioni rilevanti per l'intero settore dell'IA generativa. Se la corte dovesse riconoscere una responsabilità diretta del produttore per le risposte generate dal modello, si aprirebbe un precedente che potrebbe influenzare regolamentazioni future, standard industriali e requisiti di certificazione per i sistemi conversazionali.
|
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
|
||
|
