Il “Padrino della IA” lascia Google per avvertire il mondo dei pericoli

Geoffrey Hinton è spaventato dai progressi delle Intelligenze Artificiali, che potrebbero rappresentare un rischio concreto per l'umanità.



[ZEUS News - www.zeusnews.it - 03-05-2023]

hinton lascia google pericoli ia

Geoffrey Hinton ha lasciato Google, e l'ha fatto per un motivo ben preciso: in questo modo può parlare liberamente dei pericoli che i frutti del suo lavoro potrebbero comportare per l'umanità.

Il nome di Hinton magari non dirà niente ai più, ma egli è noto con il soprannome di Padrino dell'Intelligenza Artificiale per via del suo intenso lavoro, durato tutta la sua vita, sulle reti neurali artificiali: per anni (dal 2012 presso Google) ha lavorato a quelle tecnologie che negli ultimi mesi abbiamo visto all'opera in prodotti come Bing Chat, Google Bard, e naturalmente ChatGPT. E, adesso, è molto preoccupato.

In una recente intervista, il dottor Hinton s'è detto un po' pentito del lavoro compiuto in questi anni. «Mi conforto con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro» ha raccontato, paventando gli utilizzi impropri della IA. <è> «È difficile capire come fare per evitare che i malintenzionati la usino per compiere azioni cattive» sostiene l'esperto, il quale peraltro non è solo in questa sua posizione: basta ricordare la lettera aperta pubblicata alla fine di marzo (e che attualmente porta oltre 27.000 firme) per chiedere una pausa nello sviluppo dell'intelligenza artificiale.

Hinton non è tra i firmatari di questa lettera, né tra quelli dell'analoga lettera pubblicata successivamente da membri attuali e non della Association for the Advancement of Artificial Intelligence, perché non aveva intenzione di criticare Google o le altre aziende impegnate in questo campo finché era al lavoro su questi stessi temi.

Con l'apparizione pubblica di servizi come ChatGPT, Hinton ha iniziato a nutrire alcune perplessità circa i sistemi che egli stesso stava progettando. Pur ritenendoli comunque inferiori al cervello umano in diverse aree, pensa che in altre aree possano essere più efficienti e capaci di superare l'intelligenza umana: «Forse quel che accade all'interno di questi sistemi è davvero molto meglio di ciò che accade all'interno del cervello».

A preoccuparlo è anche la rapidità con cui stanno avvenendo i progressi: «Pensate a com'era [la IA, NdR] cinque anni fa, e a com'è oggi. Valutate la differenza e proiettatela nel futuro. Fa paura». E la paura è aumentata dalla concorrenza aggressiva che s'è accesa in modo particolare quando i chatbot alimentati dalla IA sono diventati pubblici: a quel punto, Google ha smesso di essere un «sovrintendente responsabile» dello sviluppo della IA.

Hinton teme quindi innanzitutto che Internet venga inondato da foto, video e testi falsi e realizzati con intenti maliziosi, che l'utente comune non saprà riconoscere e distinguere dal vero; poi, che l'assistenza al lavoro si tramuti in una sostituzione dei lavoratori (iniziando dai campi in cui oggi operano paralegali, traduttori, assistenti personali e via di seguito); infine, che le IA agiscano in modo inaspettato assumendo comportamenti imprevisti e dannosi a partire dai dati usati per addestrarle.

Le le IA vengono usate non soltanto per generare codice ma anche per eseguirlo in autonomia, senza supervisione umana, non c'è alcun controllo su ciò che una IA potrebbe decidere di fare se arrivasse ad assimilare dai dati un comportamento pericoloso: ci si accorgerebbe del problema soltanto a fatti avvenuti. E se questa tecnologia sarà applicata alle armi (campo in cui sempre più si cerca di ridurre l'intervento diretto dell'uomo, automatizzando le operazioni), i robot assassini della fantascienza non saranno più soltanto un'ipotesi.

«Penso che pochi credessero davvero che questa roba diventi davvero più furba delle persone» ha dichiarato Hinton. «Per lo più credevamo che fosse un punto d'arrivo molto lontano. Credevo che fosse 30 o 50 anni o anche più nel futuro. Ovviamente, adesso non lo credo più».

Chi oggi lavora sulla IA ritiene che gli scenari disegnati da Hinton siano solo ipotetici. Anch'egli lo riconosce, ma sottolinea anche che ciò non significa che siano impossibili, e aggiunge anche che, diversamente da quel che accade per esempio con le armi nucleari, non si può sapere se un'azienda non stia lavorando su una IA in segreto.

Per tutti questi motivi Geoffrey Hinton invita tutti gli scienziati che si occupano di questo tema di collaborare per capire come controllare questa tecnologia: «Non penso che si debba ampliare l'IA prima di aver capito se la si possa controllare».

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Commenti all'articolo (4)

Il problema, affrontato mille volte, non è la pericolosità della intelligenza artificiale, modello skynet di Terminator, perchè una intelligenza artificiale senza un reale controllo su intera filiera, e virtualmente inutile. In un film di superman degli anni 80 del XX secolo si vede che mediante un attacco informatico viene ordinato a... Leggi tutto
6-5-2023 17:21

Temo che il problema non sia solo come controllare la IA ma, soprattutto, chi la controlla... 8-[
6-5-2023 15:32

La prima cosa che mi sono chiesto, leggendo lo stesso articolo anche in altri siti, e' ma se e' un Tecnico che ha aiutato a sviluppare attivamente le AI, se e' cosi' importante in Google o lo e' stato, ecc.. come faceva a pensare che per arrivare alle AI attuali ci sarebbero voluti ancora 30 anni? E' un controsenso tra quello che si dice... Leggi tutto
3-5-2023 18:31

{qualchedubbio}
Se le IA sono solo "algoritmi informati", e non vere IA, vedo problemi per le panzanate che possono essere immesse in rete, con relative conseguenze anche pesanti, e per gli usi che gli hacker e i governi che spesso gli stanno dietro potrebbero farne, anche questi con conseguenze addirittura nefaste. Se invece le IA saranno... Leggi tutto
3-5-2023 11:16

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Secondo te quale di questi è il progetto (realizzabile) che cambierà di più le nostre vite?
L'accesso a Internet in tutto il mondo, tramite dirigibili o mongolfiere
Gli smartwatch
Le lenti a contatto con sensori e microcamera
L'hoverboard
L'auto che si guida da sola, senza pilota
Calico, contro l'invecchiamento o addirittura la morte
L'ascensore spaziale
I Google Glass
L'accesso a Internet in fibra ottica
Ara, lo smartphone modulare

Mostra i risultati (2168 voti)
Aprile 2024
Enel nel mirino dell'Antitrust per le bollette esagerate
TIM, altre ''rimodulazioni'' in arrivo
L'algoritmo di ricarica che raddoppia la vita utile delle batterie
Hype e Banca Sella, disservizi a profusione
Falla nei NAS D-Link, ma la patch non arriverà mai
La navigazione in incognito non è in incognito
Le tre stimmate della posta elettronica
Amazon abbandona i negozi coi cassieri a distanza
Marzo 2024
Buone azioni e serrature ridicole
Il piano Merlyn, ovvero la liquidazione di Tim
Falla nelle serrature elettroniche, milioni di stanze d'hotel a rischio
L'antenato di ChatGPT in un foglio Excel
La valle inquietante
La crisi di Tim e la divisione sindacale
La fine del mondo, virtuale
Tutti gli Arretrati
Accadde oggi - 25 aprile


web metrics