L'IA? È pericolosa come una guerra nucleare

Può causare l'estinzione del genere umano, almeno secondo una nuova petizione firmata da scienziati e personaggi noti.



[ZEUS News - www.zeusnews.it - 02-06-2023]

ia estinzione guerra nucleare

«Ridurre il rischio di estinzione a causa della IA dovrebbe essere una priorità mondiale, al pari di altri rischi che minacciano l'intera società, come le pandemie e la guerra nucleare».

A lanciare questo grido d'allarme non è qualche profeta apocalittico né si tratta esattamente delle stesse persone che già alla fine di marzo parlavano dei rischi derivanti dall'Intelligenza Artificiale.

Scienziati e «altre figure importanti» hanno infatti firmato una nuova petizione affinché si apra un confronto franco sui pericoli - ritenuti molto reali e concreti dello sviluppo della IA e crei «una conoscenza comune derivata dal crescente numero di esperti e personaggi pubblici che prendono sul serio alcuni dei rischi più gravi dell'IA avanzata».

Una scorsa all'elenco dei firmatari porta a scoperte interessanti: si notano infatti i nomi di persone come Sam Altman, CEO di OpenAI (l'azienda che ha creato ChatGPT) e Demis Hassabis, CEO di DeepMind, azienda del gruppo Alphabet (lo stesso di Google).

Ancora, vi si trovano Yoshua Bengio (che aveva già firmato) e Geoffrey Hinton la petizione di marzo, vincitori del Premio Turing e da molti considerati i "padrini" della moderna Intelligenza Artificiale.

Che lo sviluppo incontrollato della IA ponga dei seri quesiti a cui è necessario rispondere non dovrebbe essere un mistero per nessuno: anche senza aspettarsi che una IA sviluppi autocoscienza, già il semplice fatto che essa possa essere usata per creare falsi estremamente convincenti, per esempio dando vita a duplicati virtuali di politici o personaggi noti quasi indistinguibili dall'originale, dovrebbe spingere a riflettere.

Sono peraltro otto i rischi maggiori individuati dal Center for AI Safety, che ospita la petizione.

Si va dalla possibilità di usare le IA come "armi" - ai fini di destabilizzazione politica, per esempio - alla diffusione di disinformazione, ma ci sono anche rischi più sottili come «l'indebolimento»: la possibilità che un affidamento sempre più completo alle macchine finisca per creare una dipendenza dalla quale sarebbe molto difficile riuscire a evadere a causa della perdita di competenze chiave, un po' come nel film Wall-E.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Intelligenza Artificiale: il potere
Intelligenza Artificiale: il sortilegio
L'intelligenza artificiale oltre i suoi limiti
Neo Luddismo
IA: ragionare usando i dati
Cassandra Crossing/ Congiuntivo, virgola e bit
Cassandra crossing/ Overload informativo, overload sociale
Riflessioni di Cassandra/ Scrittore, giornalista, blogger o influencer?
Cassandra Crossing/ Il quarto Cavaliere
Cassandra Crossing/ Storie di aerei caduti e del loro software
Cassandra Crossing/ Extended Play
Cassandra Crossing/ L'insostenibile inaffidabilità delle infrastrutture
Spiccioli di Cassandra/ La Tv nuova
Cassandra Crossing/ Bandersnatch
Lampi di Cassandra / Una cartolina da Saturno

Commenti all'articolo (ultimi 5 di 10)

Beh, visti i reiterati comportamenti umani e le accelerazioni devianti degli anni recenti, ho come l'impressione che l'uomo sia in grado di scomparire anche senza bisogno di farsi aiutare dalla IA... :roll:
29-7-2023 13:40

{Sergio_C}
" L'IA? È pericolosa come una guerra nucleare". Io penso sia anche peggio, se l'umanità si affidera all'IA decreterà la propria scomparsa o sottomissione.
23-7-2023 13:16

Un pochino sì eh...
15-6-2023 19:11

i padri della IA non vogliono che ci si spaventi della intelligenza artificiale, ma che si si guardi dalla stupidità umana, molto più pericolosa e letale....
13-6-2023 22:11

Oppure un cimitero... e non è detto che sia un male.
11-6-2023 11:21

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Cosa ne pensi degli oggetti volanti non identificati?
Sono bufale.
Sono navi spaziali extraterrestri.
Sono esperimenti segreti di alcuni governi.
E' attività demoniaca.

Mostra i risultati (3575 voti)
Settembre 2023
Microsoft, minireattori nucleari per alimentare i datacenter della IA
NFT senza valore, la bolla è scoppiata
X (ex Twitter), tutti gli utenti dovranno pagare
iPhone 15, il connettore USB-C è zoppo
Il bug di Windows che rende velocissimo Esplora File
Lidl, merendine ritirate: invitavano a visitare sito porno
Meta pensa a Instagram e Facebook a pagamento nella UE
Agosto 2023
Chrome, nuova interfaccia: ecco come abilitarla
L'Internet delle brutte Cose
LibreOffice balza dalla versione 7.6 alla 24.2
La scorciatoia che “congela” Gestione Attività
Ford agli utenti: spegnete il Wi-Fi dell'auto
Sony e Universal contro i 78 giri dell'Internet Archive
Meloni decide la nazionalizzazione di TIM
Da Z-Library un'estensione per aggirare i blocchi
Tutti gli Arretrati
Accadde oggi - 1 ottobre


web metrics