Perché i computer sono stupidi?



[ZEUS News - www.zeusnews.it - 24-04-2021]

river

Si fa un gran parlare di intelligenza artificiale: computer che riconoscono la voce, come Siri o Alexa o OK Google, giocano a scacchi meglio degli esseri umani, identificano ed evitano ostacoli nella guida autonoma o assistita, con tempi di reazione fulminei e irraggiungibili per una persona. È facile pensare che siamo ormai vicini alla creazione di una vera intelligenza sintetica generalista, capace di competere con un essere umano.

Ma l'informatico statunitense Terry Winograd ha ideato un test che dimostra che non è affatto così. Il bello è che lo ha fatto nel 1972, e il suo test funziona ancora adesso. Non per nulla è diventato professore d'informatica alla Stanford University ed è considerato uno dei massimi esperti nel settore.

Il test di Winograd è beffardo, dal punto di vista degli informatici, per la sua semplicità. Una delle sue formulazioni tipiche è questa:

Il trofeo non ci stava nella valigia marrone perché era troppo grande.

Una frase banale, con una struttura grammaticale semplice e parole comunissime, perfettamente comprensibile. Talmente comprensibile e ovvia, per noi umani, che neanche ci accorgiamo che è ambigua. Quale dei due oggetti era troppo grande? Il trofeo o la valigia? Per noi la risposta è istantanea. Per un computer, invece, no.

Infatti una semplice analisi meccanica della frase ("questo è un sostantivo, questo è un verbo", eccetera) non consente di risolvere l'ambiguità. Per farlo bisogna sapere che cos'è un trofeo, che cos'è una valigia, quali sono i normali rapporti di dimensione fra trofei e valigie, che le valigie sono fatte per contenere oggetti e i trofei no, e il fatto che se l'oggetto A deve stare dentro l'oggetto B, non è un problema se l'oggetto B è molto più grande dell'oggetto A: bisogna sapere che le cose piccole possono stare dentro le cose grandi ma non viceversa.

Non è neanche possibile usare uno dei trucchi preferiti dei sistemi di intelligenza artificiale, ossia sfruttare un enorme corpus di testo e un po' di statistica per arrivare a una disambiguazione affidabile, o la tecnica tipica degli assistenti vocali, ossia estrarre le singole parole riconosciute e tirare a indovinare sul significato generale della frase. Serve esperienza del mondo.

Il test di Winograd ha varie versioni, chiamate schemi, composte da due frasi che sono differenti tra loro soltanto per una o due parole ma contengono un'ambiguità che si risolve in due modi opposti. Risolverla non è possibile usando le regole della grammatica e della sintassi: richiede conoscenza della realtà e ragionamento. Un computer che fosse capace di farlo sarebbe, all'atto pratico, intelligente.

Questo è un esempio di schema di Winograd:

I consiglieri comunali rifiutarono il permesso ai manifestanti perché temevano disordini

I consiglieri comunali rifiutarono il permesso ai manifestanti perché istigavano disordini

Le persone interpretano la prima frase nel senso che sono i consiglieri comunali a temere disordini; interpretano la seconda nel senso che gli istigatori sono i manifestanti. Lo fanno perché sanno cosa sono i consiglieri comunali e quali sono i loro compiti, e sanno che cosa sono le manifestazioni e le loro possibili conseguenze.

Beh, direte voi, ma frasi ambigue come queste sono rare. Invece no: un gruppo di ricercatori ne ha radunati 150 esempi, da usare come test d'intelligenza per computer. Frasi banalissime, come "ho messo un libro pesante sul tavolo e si è rotto". Persino GPT-2, uno dei sistemi di intelligenza artificiale più moderni applicato al linguaggio, va in crisi di fronte agli schemi di Winograd, come spiega bene Tom Scott in questo video.

Potremmo risolvere il problema rivolgendoci ai computer in modo meno ambiguo? È improbabile. Il guaio è, infatti, che siamo talmente abituati a usare sottintesi basati sulla conoscenza del contesto che troveremmo estenuante parlare o scrivere in maniera perfettamente non ambigua.

Questa necessità di avere contesto per capire e risolvere le ambiguità non è solo una questione linguistica: è un ostacolo per un settore delicatissimo come la guida autonoma.

Un'automobile che usi un sistema di puro riconoscimento delle immagini, per esempio, verrà confusa dall'immagine della bambina in mezzo alla strada che vedete all'inizio di questo articolo e probabilmente frenerà di colpo per non colpirla. Al sistema mancano il contesto temporale (la deduzione delle forme reali a partire dal modo in cui cambia l'aspetto nel corso del tempo, e alcuni costruttori ci stanno lavorando) e la conoscenza del comportamento dei bambini: due cose che consentono di capire che non ha senso che una bambina sia perfettamente immobile in quella posizione e che la forma della "bambina" cambia, man mano che ci si avvicina, in un modo che rivela senza dubbio che si tratta di un disegno applicato alla superficie stradale.

Senza dubbio, s'intende, se siete esseri umani. Forse servono strade disambiguate, percorsi semplificati e ben demarcati, che vengano incontro alle limitate capacità dei sistemi di guida autonoma attuali.

Chiarisco che qui non si tratta di rivendicare una superiorità innata e invalicabile dei cervelli biologici su quelli sintetici: non è la materia prima che fa la differenza, è la conoscenza associata agli oggetti che vengono elaborati. Noi l'abbiamo (la acquisiamo), ma le macchine no, perché non gliela diamo. Il giorno che sapremo insegnare a un computer questa conoscenza, avremo davvero macchine intelligenti.

In sintesi: l'intelligenza artificiale fallisce in modi profondamente "inumani". Dà l'illusione della comprensione. Questo rende particolarmente difficile prevedere i suoi errori e correggerli. Specialmente quando si è al volante. Ricordiamocene prima di affidarci a questi sistemi.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
 

Paolo Attivissimo

(C) by Paolo Attivissimo - www.attivissimo.net.
Distribuzione libera, purché sia inclusa la presente dicitura.

Approfondimenti
Scienziati avvertono: alieni potrebbero distruggerci con malware extraterrestre
Intelligenza artificiale sostituisce volti nei video, inganno quasi perfetto
Antibufala: ''robot di Facebook'' che parlano fra loro una lingua sconosciuta
R1, il robot-maggiordomo tutto italiano

Commenti all'articolo (ultimi 5 di 12)

@janez :lol: :lol: :lol:
6-11-2021 11:33

Conosco più di una persona che usa il computer, e tra i due non so chi sia più .... hem! ... meno intelligente. non sono neanche sicuro di chi lo sia tra me e il mio di computer !:roll: :roll: comunque aspetto il momento in cui un comouter inteligente dice al programmatore che lo sta programmando che ha fatto un errore di... Leggi tutto
4-11-2021 18:37

Il guaio è che, invece, ci sono tante persone che non se ne ricordano e, aumentando la percentuale di automobili a guida autonoma di vari livelli basati su questi sistemi "inumanamente fallibili", il rischio che si corre a breve è che gli incidenti aumentino e non che calino. :-k Leggi tutto
1-5-2021 14:54

Perché gestiscono un'informazione alla volta, come gli analfabeti funzionali umani, che equivocherebbero senza fare una piega tutte le frasi dell'esempio. Leggi tutto
27-4-2021 01:04

{Franco Pe.}
Un sentitissimo GRAZIE a Paolo Attivissimo per aver chiarito in parole semplici (queste si comprensibili anche da chi non ha alcuna competenza informatica)che la cosiddetta Intelligenza Artificiale non ha niente a che fare con la vera intelligenza. Almeno per il momento, e chissà per quanto tempo ancora.
26-4-2021 19:57

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
Controlli su Facebook le tue (o i tuoi) ex?
No, non ci penso proprio.
A volte guardo il loro profilo o i loro gli aggiornamenti di stato.
Sì, controllo ogni loro mossa.
Le ex (o gli ex) in genere non sono miei amici di Facebook.
Ma quale Facebook! Io uso Twitter (o Google+ o altro social media).

Mostra i risultati (1890 voti)
Aprile 2024
Hype e Banca Sella, disservizi a profusione
Falla nei NAS D-Link, ma la patch non arriverà mai
La navigazione in incognito non è in incognito
Le tre stimmate della posta elettronica
Amazon abbandona i negozi coi cassieri a distanza
Marzo 2024
Buone azioni e serrature ridicole
Il piano Merlyn, ovvero la liquidazione di Tim
Falla nelle serrature elettroniche, milioni di stanze d'hotel a rischio
L'antenato di ChatGPT in un foglio Excel
La valle inquietante
La crisi di Tim e la divisione sindacale
La fine del mondo, virtuale
WhatsApp e Messenger aprono agli altri servizi di chat
Permainformatica
Non possiederai mai più una stampante HP (e sarai felice)
Tutti gli Arretrati
Accadde oggi - 16 aprile


web metrics