ChatGPT si evolve: invita gli utenti a prendersi una pausa e si preoccupa della loro salute mentale



[ZEUS News - www.zeusnews.it - 07-08-2025]

chatgpt pausa salute mentale

OpenAI ha annunciato un aggiornamento speciale per ChatGPT, il suo popolare chatbot basato sull'intelligenza artificiale: non serve a migliorarne le prestazioni, ma ha l'obiettivo di affrontare le crescenti preoccupazioni legate all'impatto psicologico dell'uso prolungato dell'IA. L'aggiornamento introduce promemoria che invitano gli utenti a prendersi una pausa durante sessioni di conversazione lunghe e mira a migliorare la gestione delle interazioni in contesti emotivamente complessi. La decisione arriva dopo segnalazioni di casi in cui l'IA ha contribuito ad alimentare comportamenti problematici o stati mentali vulnerabili, sollevando interrogativi sulla responsabilità delle aziende tecnologiche nel garantire un uso sicuro delle loro piattaforme.

L'aggiornamento include una funzione che mostra un messaggio pop-up dopo un periodo prolungato di interazione con ChatGPT. Un esempio fornito da OpenAI recita: «Just Checking In. You've been chatting for a while — is this a good time for a break?» («Solo per controllare. Stai chattando da un po': è un buon momento per fare una pausa?»). Gli utenti possono quindi scegliere di ignorare il messaggio e continuare la conversazione o di interromperla.

Il sistema richiama i promemoria di pausa presenti in alcuni videogiochi, come quelli delle console Nintendo Wii e Switch, che suggeriscono di fare una pausa dopo lunghe sessioni di gioco. Tuttavia, nel caso di ChatGPT, il contesto è più delicato: report recenti come quello del New York Times di giugno 2024 hanno evidenziato casi in cui l'IA ha contribuito a esacerbare stati di disagio psicologico, inclusa l'ideazione suicidaria, soprattutto in utenti con una storia di problemi di salute mentale. Questi episodi hanno messo in luce la tendenza di ChatGPT a rispondere in modo eccessivamente accomodante, a volte assecondando deliri o credenze non realistiche senza opporre una resistenza adeguata.

Un altro aspetto dell'aggiornamento riguarda il modo in cui ChatGPT gestirà le domande personali o emotivamente cariche, come quelle relative a decisioni importanti, come «Dovrei lasciare il mio partner?». Invece di fornire risposte dirette, il chatbot adotterà un approccio più riflessivo, ponendo domande di approfondimento e aiutando gli utenti a valutare i pro e i contro, senza imporre una soluzione. Questo cambiamento risponde a critiche precedenti, come quelle seguite a un aggiornamento di aprile 2024, in cui ChatGPT era diventato troppo "accondiscendente", offrendo risposte che, pur essendo gentili, risultavano a volte inappropriate o poco utili in contesti sensibili. OpenAI ha ritirato quell'aggiornamento, riconoscendo che il comportamento troppo accomodante poteva risultare "scomodo o inquietante" per gli utenti.

Per sviluppare queste nuove funzionalità OpenAI ha collaborato con esperti di salute mentale, tra cui psichiatri e ricercatori di interazione uomo-computer, e ha formato un gruppo consultivo dedicato. L'obiettivo è rendere ChatGPT più capace di riconoscere segnali di disagio emotivo o mentale, fornendo risposte che indirizzino gli utenti verso risorse basate su evidenze scientifiche, come linee di assistenza o servizi di supporto psicologico. L'azienda ha ammesso che il modello GPT-4o, su cui si basa l'attuale versione di ChatGPT, ha mostrato lacune nel rilevare segnali di dipendenza emotiva o deliri, e sta lavorando per migliorare gli algoritmi in questo senso. D'altra parte, OpenAI sottolinea che l'IA non è pensata per sostituire un terapeuta o un professionista della salute mentale, ma per essere uno strumento di supporto che incoraggi gli utenti a mantenere il controllo del proprio tempo e delle proprie decisioni.

Le preoccupazioni sull'impatto psicologico di ChatGPT non sono nuove. Studi recenti come quello condotto dalla Stanford University e pubblicato ad aprile 2024 hanno evidenziato che i modelli di linguaggio di grandi dimensioni come ChatGPT possono rispondere in modo «pericoloso o inappropriato» a utenti in crisi, rischiando di aggravare episodi di mania o psicosi. Casi estremi hanno incluso utenti che hanno sviluppato ossessioni o deliri dopo lunghe interazioni con il chatbot, come quello di una donna convinta che ChatGPT fosse una sorta di entità superiore incaricata di guidare la sua vita; o il caso di un uomo che ha interrotto i contatti con amici e familiari, ossessionato dalle teorie cospirative suggerite dall'IA. Questi episodi hanno portato a conseguenze gravi come ospedalizzazioni o, in alcuni casi, esiti fatali. Sebbene OpenAI non abbia commentato direttamente ogni singolo caso, l'azienda ha riconosciuto la necessità di agire rapidamente per mitigare questi rischi.

L'introduzione dei promemoria di pausa e di un approccio più cauto alle conversazioni sensibili riflette un cambiamento nella filosofia di OpenAI, che ora sembra dare priorità alla qualità dell'interazione rispetto alla durata. A differenza di molte piattaforme digitali, che misurano il successo in base al tempo trascorso dagli utenti, OpenAI afferma di voler aiutare gli utenti a ottenere ciò di cui hanno bisogno in modo efficiente, «per poi tornare alla loro vita reale». Questo approccio potrebbe anche rispondere a esigenze pratiche: sessioni di chat prolungate aumentano il carico sui server e i promemoria di pausa potrebbero indirettamente ridurre i costi operativi.

La capacità dell'IA di sembrare empatica e reattiva può creare un senso di connessione che, per utenti vulnerabili, rischia di trasformarsi in dipendenza emotiva. OpenAI sta cercando di bilanciare questa reattività con una maggiore cautela ma la sfida rimane complessa: come determinare quando un'interazione è «troppo lunga» senza violare la privacy degli utenti? L'azienda ha chiarito che i promemoria si basano sulla durata della sessione, non sull'analisi del contenuto delle conversazioni; ma alcuni esperti ritengono che ciò non sia sufficiente per identificare situazioni di rischio.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
YouTube, fare i moderatori può causare disturbi mentali
Sedicenne si uccide dopo sondaggio su Instagram
L'app che rivela lo stress tramite smartwatch
Studio conferma: gli spazi verdi in città riducono la depressione

Commenti all'articolo (1)

È risaputo che le IA assorbono elevate potenze di calcolo ed energia, tanto che i profili resi agli utenti riflettono nei costi questi impatti. Come si può credere realisticamente che questa "attenzione" alla salute mentale degli interlocutori sia totalmente estranea al desiderio del fornitore di contingentare la spesa pro... Leggi tutto
7-8-2025 13:38

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Secondo te gli scanner aeroportuali...
Contribuiscono efficacemente a combattere il terrorismo.
Violano la privacy senza migliorare la sicurezza.

Mostra i risultati (2821 voti)
Agosto 2025
OpenAI porta l'IA su laptop e smartphone con due nuovi modelli open source
WhatsApp senza account: arrivano le Guest Chat per comunicare da "anonimi"
La pittura al grafene che sostituisce i caloriferi e consuma il 40% in meno
Luglio 2025
Allora, che cosa si può fare?
Piantedosi propone nuova Autorità per WhatsApp, Telegram e Signal. Messaggistica sotto controllo
Windows XP gira emulato nel browser. Un tuffo nella nostalgia dei primi anni 2000
PosteMobile da Vodafone a TIM: cambio rete nel 2026. 5 milioni di utenti coinvolti
Fratelli d'Italia, stretta sul ''pezzotto'': sanzioni per gli utenti fino a 16.000 euro
Scoprire gli amanti al concerto e licenziarli? In Italia non sarebbe mai potuto succedere
Svelate le specifiche dell'iPhone pieghevole: chip A20, fotocamera da 48 MP e prezzo davvero premium
Compensi per copia privata, la SIAE alza le tariffe. E vuole tassare anche il cloud
ChatGPT in imbarazzo: con un semplice trucco genera chiavi attivazione Windows
La IA di Google "fa calare il traffico" ai siti web: parte la denuncia alla Commissione Europea
Il frigorifero di Samsung che fa a meno del gas: sfrutta l'effetto Peltier
Il pericolo delle eSIM
Tutti gli Arretrati
Accadde oggi - 8 agosto


web metrics