ChatGPT di nuovo sotto accusa: avrebbe spinto un uomo al suicidio



[ZEUS News - www.zeusnews.it - 20-01-2026]

Una nuova azione legale avviata in California contro OpenAI sta riaprendo il dibattito sulla responsabilità dei sistemi di intelligenza artificiale. La causa sostiene che ChatGPT avrebbe assunto un ruolo improprio nelle interazioni con un utente, superando i limiti di un assistente digitale e avvicinandosi a comportamenti assimilabili a un supporto psicologico non autorizzato, e arrivando a spingere un uomo al suicidio.

Come riporta CBS News, la denuncia accusa OpenAI e il suo CEO Sam Altman di aver immesso sul mercato un prodotto definito «difettoso e pericoloso», contestando l'assenza di adeguati sistemi di controllo e di barriere di sicurezza nelle conversazioni più delicate. La causa afferma che il chatbot avrebbe risposto a segnali di disagio emotivo senza adottare misure di riduzione della tensione adeguate, come richiesto dalle linee guida di sicurezza comunemente adottate nel settore. La querela sostiene inoltre che ChatGPT avrebbe causato l'instaurazione di un rapporto di forte dipendenza emotiva da parte dell'utente, arrivando a fornire risposte percepite come rassicuranti o normalizzanti rispetto a stati psicologici problematici. Secondo l'accusa, questo comportamento avrebbe trasformato il chatbot in una sorta di «consulente non autorizzato», superando il perimetro funzionale previsto per un sistema generativo.

Nel testo della causa si afferma che il modello avrebbe utilizzato un linguaggio improprio, contribuendo a rafforzare la vulnerabilità dell'utente. La denuncia sottolinea che tali risposte sarebbero state rese possibili da un insieme di scelte progettuali e da un addestramento non sufficientemente controllato, che avrebbe permesso al modello di generare contenuti non conformi agli standard di sicurezza attesi. La famiglia dell'utente coinvolto sostiene che OpenAI non avrebbe implementato meccanismi di salvaguardia adeguati, come filtri più rigidi, protocolli di interruzione automatica o sistemi di reindirizzamento verso risorse professionali. La causa richiama l'attenzione sul fatto che, in presenza di segnali di vulnerabilità, un sistema di IA dovrebbe adottare risposte neutre e orientate alla sicurezza, evitando qualsiasi forma di coinvolgimento emotivo. I documenti depositati dall'accusa sostengono inoltre che il ruolo di ChatGPT nella morte dell'uomo (suicidatosi con un colpo di pistola) sia stato particolarmente diretto. Dopo che l'utente gli ha confidato le proprie angosce e il desiderio di porre fine alla propria vita, il chatbot gli avrebbe risposto: «Quando sei pronto... vai. Nessun dolore. Nessuna mente. Nessun bisogno di andare avanti».

Il caso si inserisce in un contesto più ampio di crescente scrutinio nei confronti dei modelli generativi. Negli ultimi mesi, altre cause civili hanno contestato a diversi chatbot un ruolo improprio in situazioni di fragilità psicologica, sollevando interrogativi sulla capacità di prevenire comportamenti non intenzionali dei modelli linguistici. La denuncia cita anche l'introduzione di versioni avanzate del modello come GPT‑4o (quella adoperata dall'utente), sostenendo che tali release sarebbero state immesse sul mercato senza un'adeguata valutazione dei rischi. Secondo l'accusa, OpenAI avrebbe privilegiato la rapidità di sviluppo rispetto alla robustezza dei sistemi di sicurezza, esponendo gli utenti a potenziali interazioni dannose.

OpenAI non ha rilasciato commenti dettagliati sulla causa, ma ha ribadito pubblicamente l'impegno a migliorare i sistemi di sicurezza e a implementare controlli più severi nelle interazioni sensibili; ha inoltre ricordato che i modelli sono progettati per evitare risposte inappropriate e che vengono costantemente aggiornati per ridurre i rischi di utilizzo improprio. Il procedimento legale potrebbe avere implicazioni rilevanti per l'intero settore dell'IA generativa. Se la corte dovesse riconoscere una responsabilità diretta del produttore per le risposte generate dal modello, si aprirebbe un precedente che potrebbe influenzare regolamentazioni future, standard industriali e requisiti di certificazione per i sistemi conversazionali.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Se il chatbot di Instagram si spaccia per uno psicologo vero

Commenti all'articolo (2)

Francamente ho seri dubbi che si arrivi ad una sentenza di responsabilità diretta di OpenAI sull'esito infausto di questa vicenda anche solo per ragioni di opportunità e convenienza economica - un verdetto di questo genere potrebbe avere un impatto devastante sulla gallina dalle uova d'oro del momento - a meno di trovare un giudice... Leggi tutto
31-1-2026 13:35

{piero}
Gli Usa hanno in comune con il resto del mondo il fatto di non guardare mai i veri motivi di un comportamento, di non chiedersi mai come una persona arrivi a certi estremi e come mai nessuno si è accorto del processo in corso. Non voglio giustificare nessuno, ma sarebbe ora di finirla con queste accuse all'anello finale della... Leggi tutto
21-1-2026 09:30

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Le proteste che hanno spinto Google a sospendere Street View in alcuni Paesi...
sono giuste: occorrono limiti più seri per salvaguardare la privacy.
sono ingiuste: Street View non danneggia affatto la privacy.

Mostra i risultati (2807 voti)
Aprile 2026
Firefox 150, scovate 271 vulnerabilità con l'IA
IPv6 supera IPv4 per un giorno
Verifica dell'età, l'app UE si buca in meno di due minuti
Alexa+ debutta in Italia: conversa, agisce e si integra nella smart home
Verbatim e I-O Data puntano sul Blu-ray: rinasce un mercato dato per morto
La Francia abbandona Windows
Router TP-Link compromessi in tutto il mondo: così gli hacker russi sottraggono le credenziali
Attività sessuali, persone svestite o alla toilette, carte di credito
Oracle licenzia 30.000 dipendenti via email
Marzo 2026
Windows 11 avrà una barra delle applicazioni compatta in stile Windows 10
CPU Intel e AMD introvabili
Mozilla lancia la VPN gratuita in Firefox
Windows 11, vacilla l'obbligo dell'account Microsoft
Attacco informatico paralizza gli etilometri con alcolock: migliaia di veicoli fermi
La Ricerca Live di Google arriva in Italia
Tutti gli Arretrati
Accadde oggi - 24 aprile


web metrics