Le allucinazioni della IA possono avere conseguenze molto gravi, come è appena successo in Norvegia.
[ZEUS News - www.zeusnews.it - 21-03-2025]
Che le IA soffrano di allucinazioni è noto, ma generalmente - considerato l'uso piuttosto limitato che si fa attualmente delle intelligenze artificiali - si tratta di imprecisioni che hanno scarso impatto sul "mondo reale".
In Norvegia, però, è accaduto qualcosa di diverso. Lì OpenAI è stata denunciata dal gruppo di difensori della privacy NOYB (None Of Your Business) al locale garante per la protezione dei dati personali a causa delle informazioni errate generate da ChatGPT.
Per la precisione, il chatbot è accusato di aver generato informazioni false e diffamatorie su un cittadino norvegese, Arve Hjalmar Holmen, cui ha attribuito una storia inventata. ChatGPT sosteneva che fosse l'uomo stato condannato per l'uccisione di due dei suoi figli e per il tentato omicidio di un terzo, con chiare, gravi conseguenze potenziali per la sua reputazione.
La denuncia si fonda sul GDPR, in base al quale si richiede che i dati personali pubblicamente accessibili siano accurati, e che riconosce il diritto di rettificarli o cancellarli se errati.
NOYB sostiene che OpenAI abbia violato questi principi, aggravando la situazione con l'assenza di strumenti adeguati per correggere gli errori.
Nonostante gli aggiornamenti apportati a ChatGPT per ridurre le inesattezze, il gruppo sottolinea che le informazioni false possano persistere nel modello e essere sfruttate internamente, sollevando dubbi sulla trasparenza e sulla gestione dei dati.
Quello norvegese non è peraltro un episodio isolato. ChatGPT ha già prodotto affermazioni scorrette in passato, come nel caso del sindaco australiano accusato ingiustamente di corruzione.
È pur vero che OpenAI ha aggiunto a ChatGPT delle dichiarazioni di limitazione della responsabilità per segnalare la possibile inattendibilità delle risposte, ma NOYB li ritiene insufficienti rispetto agli obblighi del GDPR. La richiesta è chiara: eliminare i dati diffamatori, modificare il modello per evitare futuri problemi e valutare sanzioni.
Il caso riflette una crescente preoccupazione per le "allucinazioni" dei modelli IA generativi, che producono contenuti non veritieri con implicazioni legali ed etiche, ma anche per l'utilizzo apparentemente disinvolto dei dati personali fatto da questi modelli.
Le autorità europee, come dimostrato dalla multa italiana di 15 milioni di euro inflitta a OpenAI nel 2024 per violazione del GDPR, stanno intensificando il controllo su queste tecnologie.
La vicenda norvegese potrebbe spingere OpenAI a rivedere il proprio approccio alla gestione dei dati, evidenziando il difficile equilibrio tra innovazione e rispetto delle normative sulla privacy.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
||
|
Gladiator