ChatGPT di nuovo sotto accusa: avrebbe spinto un uomo al suicidio



[ZEUS News - www.zeusnews.it - 20-01-2026]

Una nuova azione legale avviata in California contro OpenAI sta riaprendo il dibattito sulla responsabilità dei sistemi di intelligenza artificiale. La causa sostiene che ChatGPT avrebbe assunto un ruolo improprio nelle interazioni con un utente, superando i limiti di un assistente digitale e avvicinandosi a comportamenti assimilabili a un supporto psicologico non autorizzato, e arrivando a spingere un uomo al suicidio.

Come riporta CBS News, la denuncia accusa OpenAI e il suo CEO Sam Altman di aver immesso sul mercato un prodotto definito «difettoso e pericoloso», contestando l'assenza di adeguati sistemi di controllo e di barriere di sicurezza nelle conversazioni più delicate. La causa afferma che il chatbot avrebbe risposto a segnali di disagio emotivo senza adottare misure di riduzione della tensione adeguate, come richiesto dalle linee guida di sicurezza comunemente adottate nel settore. La querela sostiene inoltre che ChatGPT avrebbe causato l'instaurazione di un rapporto di forte dipendenza emotiva da parte dell'utente, arrivando a fornire risposte percepite come rassicuranti o normalizzanti rispetto a stati psicologici problematici. Secondo l'accusa, questo comportamento avrebbe trasformato il chatbot in una sorta di «consulente non autorizzato», superando il perimetro funzionale previsto per un sistema generativo.

Nel testo della causa si afferma che il modello avrebbe utilizzato un linguaggio improprio, contribuendo a rafforzare la vulnerabilità dell'utente. La denuncia sottolinea che tali risposte sarebbero state rese possibili da un insieme di scelte progettuali e da un addestramento non sufficientemente controllato, che avrebbe permesso al modello di generare contenuti non conformi agli standard di sicurezza attesi. La famiglia dell'utente coinvolto sostiene che OpenAI non avrebbe implementato meccanismi di salvaguardia adeguati, come filtri più rigidi, protocolli di interruzione automatica o sistemi di reindirizzamento verso risorse professionali. La causa richiama l'attenzione sul fatto che, in presenza di segnali di vulnerabilità, un sistema di IA dovrebbe adottare risposte neutre e orientate alla sicurezza, evitando qualsiasi forma di coinvolgimento emotivo. I documenti depositati dall'accusa sostengono inoltre che il ruolo di ChatGPT nella morte dell'uomo (suicidatosi con un colpo di pistola) sia stato particolarmente diretto. Dopo che l'utente gli ha confidato le proprie angosce e il desiderio di porre fine alla propria vita, il chatbot gli avrebbe risposto: «Quando sei pronto... vai. Nessun dolore. Nessuna mente. Nessun bisogno di andare avanti».

Il caso si inserisce in un contesto più ampio di crescente scrutinio nei confronti dei modelli generativi. Negli ultimi mesi, altre cause civili hanno contestato a diversi chatbot un ruolo improprio in situazioni di fragilità psicologica, sollevando interrogativi sulla capacità di prevenire comportamenti non intenzionali dei modelli linguistici. La denuncia cita anche l'introduzione di versioni avanzate del modello come GPT‑4o (quella adoperata dall'utente), sostenendo che tali release sarebbero state immesse sul mercato senza un'adeguata valutazione dei rischi. Secondo l'accusa, OpenAI avrebbe privilegiato la rapidità di sviluppo rispetto alla robustezza dei sistemi di sicurezza, esponendo gli utenti a potenziali interazioni dannose.

OpenAI non ha rilasciato commenti dettagliati sulla causa, ma ha ribadito pubblicamente l'impegno a migliorare i sistemi di sicurezza e a implementare controlli più severi nelle interazioni sensibili; ha inoltre ricordato che i modelli sono progettati per evitare risposte inappropriate e che vengono costantemente aggiornati per ridurre i rischi di utilizzo improprio. Il procedimento legale potrebbe avere implicazioni rilevanti per l'intero settore dell'IA generativa. Se la corte dovesse riconoscere una responsabilità diretta del produttore per le risposte generate dal modello, si aprirebbe un precedente che potrebbe influenzare regolamentazioni future, standard industriali e requisiti di certificazione per i sistemi conversazionali.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Se il chatbot di Instagram si spaccia per uno psicologo vero

Commenti all'articolo (2)

Francamente ho seri dubbi che si arrivi ad una sentenza di responsabilità diretta di OpenAI sull'esito infausto di questa vicenda anche solo per ragioni di opportunità e convenienza economica - un verdetto di questo genere potrebbe avere un impatto devastante sulla gallina dalle uova d'oro del momento - a meno di trovare un giudice... Leggi tutto
31-1-2026 13:35

{piero}
Gli Usa hanno in comune con il resto del mondo il fatto di non guardare mai i veri motivi di un comportamento, di non chiedersi mai come una persona arrivi a certi estremi e come mai nessuno si è accorto del processo in corso. Non voglio giustificare nessuno, ma sarebbe ora di finirla con queste accuse all'anello finale della... Leggi tutto
21-1-2026 09:30

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Cosa ne pensi del ritocco digitale dei film classici (non solo di fantascienza)?
E' un falso storico; i film vanno visti come furono girati.
E' necessario, per evitare che certi film vengano dimenticati.
Va bene, basta che sia indicato chiaramente.
Non me ne può fregar di meno.

Mostra i risultati (3522 voti)
Marzo 2026
Office EU, la suite open source europea che sfida Microsoft e Google
Svelato per errore MacBook Neo, il portatile economico di Apple
Windows 12 è in arrivo: NPU obbligatoria e milioni di PC a rischio obsolescenza
Motorola lascia Android e va su GrapheneOS, per la massima privacy
Copia privata, scattano gli aumenti: tassato anche il cloud!
Febbraio 2026
Il titolo IBM precipita in borsa: colpa dell'IA e c'entra il COBOL
Outlook diventa inutilizzabile, un bug fa sparire il cursore del mouse
ISEE, la presentazione non è più necessaria: il sistema automatico rivoluziona controlli e procedure
Meta chiude il sito di Messenger
Winhance ottimizza Windows 11: meno app inutili, più velocità e controllo sistema
Grave falla in Chrome già attivamente sfruttata: aggiornare subito il browser di Google
Western Digital ha già venduto tutti gli hard disk del 2026
Claude, il piano gratuito si potenzia: quattro funzioni premium ora accessibili a tutti
Windows più leggero e veloce: WinUtil elimina il superfluo e personalizza il sistema in profondità
Agenzia delle Entrate su IO: avvisi, scadenze e comunicazioni fiscali
Tutti gli Arretrati
Accadde oggi - 9 marzo


web metrics