Geoffrey Hinton è spaventato dai progressi delle Intelligenze Artificiali, che potrebbero rappresentare un rischio concreto per l'umanità.
[ZEUS News - www.zeusnews.it - 03-05-2023]
Geoffrey Hinton ha lasciato Google, e l'ha fatto per un motivo ben preciso: in questo modo può parlare liberamente dei pericoli che i frutti del suo lavoro potrebbero comportare per l'umanità.
Il nome di Hinton magari non dirà niente ai più, ma egli è noto con il soprannome di Padrino dell'Intelligenza Artificiale per via del suo intenso lavoro, durato tutta la sua vita, sulle reti neurali artificiali: per anni (dal 2012 presso Google) ha lavorato a quelle tecnologie che negli ultimi mesi abbiamo visto all'opera in prodotti come Bing Chat, Google Bard, e naturalmente ChatGPT. E, adesso, è molto preoccupato.
In una recente intervista, il dottor Hinton s'è detto un po' pentito del lavoro compiuto in questi anni. «Mi conforto con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro» ha raccontato, paventando gli utilizzi impropri della IA. <è> «È difficile capire come fare per evitare che i malintenzionati la usino per compiere azioni cattive» sostiene l'esperto, il quale peraltro non è solo in questa sua posizione: basta ricordare la lettera aperta pubblicata alla fine di marzo (e che attualmente porta oltre 27.000 firme) per chiedere una pausa nello sviluppo dell'intelligenza artificiale.
Hinton non è tra i firmatari di questa lettera, né tra quelli dell'analoga lettera pubblicata successivamente da membri attuali e non della Association for the Advancement of Artificial Intelligence, perché non aveva intenzione di criticare Google o le altre aziende impegnate in questo campo finché era al lavoro su questi stessi temi.
Con l'apparizione pubblica di servizi come ChatGPT, Hinton ha iniziato a nutrire alcune perplessità circa i sistemi che egli stesso stava progettando. Pur ritenendoli comunque inferiori al cervello umano in diverse aree, pensa che in altre aree possano essere più efficienti e capaci di superare l'intelligenza umana: «Forse quel che accade all'interno di questi sistemi è davvero molto meglio di ciò che accade all'interno del cervello».
A preoccuparlo è anche la rapidità con cui stanno avvenendo i progressi: «Pensate a com'era [la IA, NdR] cinque anni fa, e a com'è oggi. Valutate la differenza e proiettatela nel futuro. Fa paura». E la paura è aumentata dalla concorrenza aggressiva che s'è accesa in modo particolare quando i chatbot alimentati dalla IA sono diventati pubblici: a quel punto, Google ha smesso di essere un «sovrintendente responsabile» dello sviluppo della IA.
Hinton teme quindi innanzitutto che Internet venga inondato da foto, video e testi falsi e realizzati con intenti maliziosi, che l'utente comune non saprà riconoscere e distinguere dal vero; poi, che l'assistenza al lavoro si tramuti in una sostituzione dei lavoratori (iniziando dai campi in cui oggi operano paralegali, traduttori, assistenti personali e via di seguito); infine, che le IA agiscano in modo inaspettato assumendo comportamenti imprevisti e dannosi a partire dai dati usati per addestrarle.
Le le IA vengono usate non soltanto per generare codice ma anche per eseguirlo in autonomia, senza supervisione umana, non c'è alcun controllo su ciò che una IA potrebbe decidere di fare se arrivasse ad assimilare dai dati un comportamento pericoloso: ci si accorgerebbe del problema soltanto a fatti avvenuti. E se questa tecnologia sarà applicata alle armi (campo in cui sempre più si cerca di ridurre l'intervento diretto dell'uomo, automatizzando le operazioni), i robot assassini della fantascienza non saranno più soltanto un'ipotesi.
«Penso che pochi credessero davvero che questa roba diventi davvero più furba delle persone» ha dichiarato Hinton. «Per lo più credevamo che fosse un punto d'arrivo molto lontano. Credevo che fosse 30 o 50 anni o anche più nel futuro. Ovviamente, adesso non lo credo più».
Chi oggi lavora sulla IA ritiene che gli scenari disegnati da Hinton siano solo ipotetici. Anch'egli lo riconosce, ma sottolinea anche che ciò non significa che siano impossibili, e aggiunge anche che, diversamente da quel che accade per esempio con le armi nucleari, non si può sapere se un'azienda non stia lavorando su una IA in segreto.
Per tutti questi motivi Geoffrey Hinton invita tutti gli scienziati che si occupano di questo tema di collaborare per capire come controllare questa tecnologia: «Non penso che si debba ampliare l'IA prima di aver capito se la si possa controllare».
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
||
|
zeross