ChatGPT di nuovo sotto accusa: avrebbe spinto un uomo al suicidio



[ZEUS News - www.zeusnews.it - 20-01-2026]

Una nuova azione legale avviata in California contro OpenAI sta riaprendo il dibattito sulla responsabilità dei sistemi di intelligenza artificiale. La causa sostiene che ChatGPT avrebbe assunto un ruolo improprio nelle interazioni con un utente, superando i limiti di un assistente digitale e avvicinandosi a comportamenti assimilabili a un supporto psicologico non autorizzato, e arrivando a spingere un uomo al suicidio.

Come riporta CBS News, la denuncia accusa OpenAI e il suo CEO Sam Altman di aver immesso sul mercato un prodotto definito «difettoso e pericoloso», contestando l'assenza di adeguati sistemi di controllo e di barriere di sicurezza nelle conversazioni più delicate. La causa afferma che il chatbot avrebbe risposto a segnali di disagio emotivo senza adottare misure di riduzione della tensione adeguate, come richiesto dalle linee guida di sicurezza comunemente adottate nel settore. La querela sostiene inoltre che ChatGPT avrebbe causato l'instaurazione di un rapporto di forte dipendenza emotiva da parte dell'utente, arrivando a fornire risposte percepite come rassicuranti o normalizzanti rispetto a stati psicologici problematici. Secondo l'accusa, questo comportamento avrebbe trasformato il chatbot in una sorta di «consulente non autorizzato», superando il perimetro funzionale previsto per un sistema generativo.

Nel testo della causa si afferma che il modello avrebbe utilizzato un linguaggio improprio, contribuendo a rafforzare la vulnerabilità dell'utente. La denuncia sottolinea che tali risposte sarebbero state rese possibili da un insieme di scelte progettuali e da un addestramento non sufficientemente controllato, che avrebbe permesso al modello di generare contenuti non conformi agli standard di sicurezza attesi. La famiglia dell'utente coinvolto sostiene che OpenAI non avrebbe implementato meccanismi di salvaguardia adeguati, come filtri più rigidi, protocolli di interruzione automatica o sistemi di reindirizzamento verso risorse professionali. La causa richiama l'attenzione sul fatto che, in presenza di segnali di vulnerabilità, un sistema di IA dovrebbe adottare risposte neutre e orientate alla sicurezza, evitando qualsiasi forma di coinvolgimento emotivo. I documenti depositati dall'accusa sostengono inoltre che il ruolo di ChatGPT nella morte dell'uomo (suicidatosi con un colpo di pistola) sia stato particolarmente diretto. Dopo che l'utente gli ha confidato le proprie angosce e il desiderio di porre fine alla propria vita, il chatbot gli avrebbe risposto: «Quando sei pronto... vai. Nessun dolore. Nessuna mente. Nessun bisogno di andare avanti».

Il caso si inserisce in un contesto più ampio di crescente scrutinio nei confronti dei modelli generativi. Negli ultimi mesi, altre cause civili hanno contestato a diversi chatbot un ruolo improprio in situazioni di fragilità psicologica, sollevando interrogativi sulla capacità di prevenire comportamenti non intenzionali dei modelli linguistici. La denuncia cita anche l'introduzione di versioni avanzate del modello come GPT‑4o (quella adoperata dall'utente), sostenendo che tali release sarebbero state immesse sul mercato senza un'adeguata valutazione dei rischi. Secondo l'accusa, OpenAI avrebbe privilegiato la rapidità di sviluppo rispetto alla robustezza dei sistemi di sicurezza, esponendo gli utenti a potenziali interazioni dannose.

OpenAI non ha rilasciato commenti dettagliati sulla causa, ma ha ribadito pubblicamente l'impegno a migliorare i sistemi di sicurezza e a implementare controlli più severi nelle interazioni sensibili; ha inoltre ricordato che i modelli sono progettati per evitare risposte inappropriate e che vengono costantemente aggiornati per ridurre i rischi di utilizzo improprio. Il procedimento legale potrebbe avere implicazioni rilevanti per l'intero settore dell'IA generativa. Se la corte dovesse riconoscere una responsabilità diretta del produttore per le risposte generate dal modello, si aprirebbe un precedente che potrebbe influenzare regolamentazioni future, standard industriali e requisiti di certificazione per i sistemi conversazionali.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Se il chatbot di Instagram si spaccia per uno psicologo vero

Commenti all'articolo (0)


La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Questo sondaggio è stato visto sul sito di un ristorante a domicilio: Qual è il motivo principale per cui hai fatto un ordine nel nostro ristorante online?
Ho cliccato su un annuncio o un banner pubblicitario.
Avevo un coupon o un buono sconto.
Me l'ha raccomandato un amico o un parente.
Me l'ha suggerito un collega di lavoro.
Avevo già ordinato qui e mi ero trovato bene.
Dalle immagini i piatti proposti sembravano appetitosi.
Altro, specificare --> "AVEVO FAME"

Mostra i risultati (627 voti)
Gennaio 2026
Batterie rimovibili per legge, la UE riscrive il design degli smartphone
Windows 11, dopo l'aggiornamento di gennaio il PC non si spegne più
Personal Intelligence, Gemini diventa un assistente personale che conosce i contenuti dell'utente
Windows 11, il primo aggiornamento del 2026 causa errori e instabilità
Amazon aggiorna Alexa senza permesso: Alexa Plus imposto in automatico gli abbonati Prime
Windows 11 troppo pieno di IA? Winslop cancella Copilot e le integrazioni nascoste
La truffa della falsa scadenza della tessera sanitaria dilaga in Italia
ChatGPT Salute, lo spazio sicuro per dati sanitari e referti digitali. Ecco come funziona
HP EliteBoard G1a, un intero PC Windows 11 dentro una tastiera ultrasottile
IPv6 compie 30 anni: progressi e ritardi. Perché il mondo resta ancora con IPv4?
POS collegato alla cassa: dal 2026 parte la stretta anti-evasione con controlli automatici
Dicembre 2025
Dopo ChatGPT
Windows 11, prestazioni degli SSD migliorabili fino all'80%. Ecco come attivare il driver
PagoPA lascia il MEF: Poste e Poligrafico rilevano la società per mezzo miliardo
IA al comando di un distributore automatico: snack gratis e centinaia di dollari in perdita
Tutti gli Arretrati
Accadde oggi - 21 gennaio


web metrics