Cerca nel blog

Visualizzazione post con etichetta deepfake. Mostra tutti i post
Visualizzazione post con etichetta deepfake. Mostra tutti i post

2023/10/25

(AGGIORNAMENTO 2023/10/30) Ci vediamo stasera al Film Festival Diritti Umani a Lugano? Parliamo di abusi basati sui deepfake guardando “Another body”

Pubblicazione iniziale 2023/10/25 10:21. Ultimo aggiornamento: 2023/10/27 00:30.

Questa sera alle 20.30 sarò uno degli ospiti del Film Festival Diritti Umani, che si sta tenendo a Lugano dal 19 al 25 ottobre, insieme a Bruno Giussani (curatore internazionale di TED) con la moderazione della giornalista RSI Michèle Volonté. Vedremo il documentario Another body di Sophie Compton e Reuben Hamlyn (in inglese con sottotitoli in italiano) e ne discuteremo con il pubblico dopo la proiezione, che inizia alle 20.30 al cinema Corso, in via Pioda 4.

Il tema dei diritti umani può sembrare insolito da trattare per chi si occupa principalmente di informatica, ma in questo caso è proprio l’informatica a stravolgere un diritto umano fondamentale, rendendo possibile una nuova forma di abuso: il deepfake di immagini intime non consensuali, ossia l’uso di software per creare e diffondere foto e video che applicano realisticamente il volto di una vittima (quasi sempre una donna) a scene di sesso in realtà interpretate da altre persone, allo scopo di molestarle o umiliare pubblicamente quella vittima.

Non chiamatelo revenge porn: è profondamente sbagliato, perché sottintende erroneamente che la vittima abbia commesso qualche azione che giustifica una vendetta da parte di chi produce e diffonde questi video, e non è pornografia, perché la pornografia è consensuale: gli interpreti scelgono di essere ripresi e che la loro immagine intima venga diffusa.

Il documentario Another Body racconta in dettaglio la vicenda di una giovane donna che diventa vittima di un deepfake che la mostra e che viene pubblicato su Pornhub, sconvolgendo la sua vita. Non contiene immagini esplicite, ma vi allude molto chiaramente, e soprattutto tocca un tema molto delicato e sempre più diffuso, per cui il Festival ne consiglia la visione alle persone dai 15 anni in su.

Per chi avesse bisogno di risorse contro questa piaga:

2023/10/27

È stata una serata molto intensa: molte persone in sala sono rimaste scioccate da quello che hanno visto, perché non avevano idea dell’esistenza di questo fenomeno e di quanto fosse facile produrre questi deepfake oggi, ma soprattutto non immaginavano che qualcuno (anzi, ben più di un occasionale qualcuno) potesse arrivare a tanto. Alcune persone hanno lasciato la proiezione, profondamente scosse. Nel dibattito dopo il film, Bruno Giussani ed io abbiamo cercato di offrire risorse e rimedi per almeno contenere il danno di questi abusi. Su La Regione c’è un articolo di Ivo Silvestro (paywall) che parla del documentario e del dibattito con il pubblico.

Aggiungo qui un link a un caso di deepfake politico avvenuto proprio pochi giorni fa qui in Svizzera a pochi giorni dalle elezioni federali: un video falso pubblicato lunedì scorso da un consigliere nazionale dell’UDC, Andreas Glarner, che mostra un deepfake in cui la deputata dei Verdi Sibel Arslan sembrava pronunciare slogan a favore dell’UDC. La deputata si è rivolta al tribunale civile di Basilea, che ha ottenuto la cancellazione del video. Gli altri partiti hanno condannato l’uso di deepfake in campagna elettorale; l’UDC ha scelto di difendere “quello che definisce il diritto alla satira” (Rsi.ch, 18 ottobre). 

Infine allego un parere del Consiglio Federale sui deepfake, datato 16 agosto 2023 (i grassetti sono aggiunti da me):

Salvo poche eccezioni (p.es. in alcuni Stati federali americani e in Cina), a livello internazionale non esistono regolamentazioni specifiche sui deepfake, nemmeno nell’Unione europea. Un riferimento esplicito ai sistemi che generano deepfake esiste solo nell’attuale progetto di ordinanza sulla definizione di prescrizioni armonizzate per l’intelligenza artificiale (IA). La Commissione europea considera questi sistemi «a basso rischio». Secondo la bozza di ordinanza i deepfake devono essere in linea di principio resi noti. Il progetto di ordinanza sulla definizione di prescrizioni armonizzate per l’intelligenza artificiale è ancora in fase di negoziazione all’interno dell’UE. Varie altre basi legali presenti nell’UE possono essere applicate ai deepfake, tuttavia non sono esplicitamente mirate ad essi. Inoltre, la Commissione europea sta cercando di aggiungere al codice di condotta volontario contro la disinformazione alcuni passaggi sui deepfakes generati dall'IA.

Attualmente in Svizzera non sembra opportuno elaborare una regolamentazione specifica per i deepfake. Tuttavia, è possibile prevedere che in futuro occorra una regolamentazione per quanto riguarda l'aspetto generale dell'IA. Attualmente in Svizzera non sembra opportuno elaborare una regolamentazione specifica per un singolo aspetto. Tuttavia, non si può escludere che in futuro occorra una regolamentazione per quanto riguarda l'aspetto generale dell'IA. Il Consiglio federale segue da vicino gli sviluppi legali in materia, in particolare nell'Unione europea.

Il 5 aprile 2023 il Consiglio federale ha incaricato il DATEC di preparare, entro fine marzo 2024, un avamprogetto da porre in consultazione per regolamentare le piattaforme di comunicazione. Si valuta, tra le altre cose, l’opportunità di introdurre un obbligo per queste ultime di adottare una procedura di notifica e azione («notice and action»). Agli utenti viene così data la possibilità di segnalare facilmente i contenuti potenzialmente illegali. Le piattaforme di comunicazione dovrebbero valutare le segnalazioni ricevute ed eventualmente rimuovere i contenuti. Se dovessero essere realizzati contenuti illegali tramite deepfake, si applicherebbe questa procedura di notifica.

Sul piano penale, il Consiglio federale ritiene che non vi siano lacune legislative per quanto riguarda l’utilizzo delle applicazioni per deepfake. Sostanzialmente il Codice penale svizzero è concepito per essere neutro dal punto di vista tecnologico. Esso si applica indipendentemente dalle tecnologie impiegate dall’autore. Ad esempio, se l’autore utilizza la tecnologia deepfake per commettere un delitto contro l’onore o la sfera privata, sono applicabili le corrispondenti disposizioni (art. 173 segg. CP; in particolare anche le nuove disposizioni contro l’usurpazione d’identità che entreranno in vigore il 1° settembre 2023, art. 179decies CP). Se l’autore manifesta un’intenzione più ampia attraverso l’uso di deepfake, ad esempio per ottenere un vantaggio pecuniario con l’inganno, si applicano le fattispecie penali corrispondenti nell’ambito del diritto penale patrimoniale. Il riferimento a singole tecnologie non offrirebbe un valore aggiunto, bensì metterebbe in discussione la completezza del diritto penale vigente in relazione ad altri sviluppi tecnologici. 

Le stesse considerazioni valgono per il diritto civile: indipendentemente dalle tecnologie impiegate si possono applicare in particolare le disposizioni sulle lesioni alla personalità (ovvero il diritto sulla propria immagine e la propria voce, il diritto al rispetto della sfera intima e privata, il diritto all’onore) e i rispettivi mezzi di ricorso (ovvero cessazione, divieto). Ciò vale anche per la responsabilità per atti illeciti, anch’essa neutrale dal punto di vista tecnologico e applicabile in caso di violazione dei diritti tramite l’impiego di deepfake, sempreché i relativi requisiti siano adempiuti.

Infine, va ricordato il principio dell'esattezza dei dati sancito dall'articolo 6 capoverso 5 della nuova legge sulla protezione dei dati (nLPD; RS 235.1) secondo cui, chi tratta dati personali deve accertarsi della loro esattezza.

2023/10/30

Rassegna stampa: Tio.ch. Foto: galleria del FFDU.

2023/06/29

Podcast RSI - Story: Gli orrori annunciati dell’IA diventano realtà. Come reagire?

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso www.rsi.ch/ildisinformatico (link diretto) e qui sotto.

Le puntate del Disinformatico sono ascoltabili anche tramite feed RSS, iTunes, Google Podcasts e Spotify.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Mikko Hyppönen: “Fake text, fake speech, fake images, fake video, and fake voices”]

Quando sono stati annunciati pubblicamente i primi software di intelligenza artificiale capaci di generare immagini e testi, per molti imprenditori la reazione istintiva è stata un entusiasmo sconfinato di fronte all’idea di poter tagliare i costi di produzione dei contenuti mettendo al lavoro questi nuovi servitori digitali al posto delle persone. Ma per molti altri, anche non esperti di informatica, la reazione è stata ben diversa. Paura, pura e semplice. Paura per il proprio posto di lavoro e paura per i possibili abusi, facilmente prevedibili, di questa tecnologia.

Questa è la storia di come quella paura del possibile è oggi diventata reale, raccontata attraverso tre casi recenti che sono un campanello d’allarme urgente. Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori. La politica nazionale e internazionale si china su queste questioni con i suoi tempi inevitabilmente lunghi, ma nel frattempo i danni personali e sociali sono già gravi e tangibili, ed è decisamente il momento di chiedersi se si possa fare qualcosa di più di un coro tedioso di meritatissimi “Ve l’avevamo detto”.

Benvenuti alla puntata del 30 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – e questa settimana inquietanti – dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Deepfake per furti ed estorsioni

Già nel 2017 gli utenti comuni si divertivano a usare app come FaceApp per alterare il proprio volto, e nel 2019 erano incantati dall’idea di inserirsi al posto agli attori negli spezzoni di film celebri con app come Zao, che davano risultati in pochi secondi, ma nel frattempo molti si ponevano il problema dei possibili abusi di queste tecnologie nascenti di deepfake basate sull’intelligenza artificiale, soprattutto in termini di privacy e di sorveglianza di massa.

Il crimine informatico organizzato, invece, stava aspettando il passo successivo: i deepfake in tempo reale, che oggi sono facilmente disponibili su un normale personal computer dotato di una scheda grafica di buona potenza. Già da alcuni anni è possibile alterare istantaneamente la propria voce in modo da imitare quella di qualunque altra persona di cui si abbia un breve campione. E questa produzione in tempo reale cambia tutto, perché rende possibile truffe atroci alle quali siamo impreparati.

Immaginate di ricevere una telefonata nella quale vostro figlio, o il vostro partner, vi dice con tono disperato che è coinvolto in un incidente stradale ed è in arresto, e poi passa la linea a un agente di polizia che spiega che è possibile pagare una cauzione e fornisce le istruzioni per farlo. Questa è la tecnica usata per esempio da un ventitreenne, Charles Gillen, in Canada, che nel giro di soli tre giorni, all’inizio di quest’anno, è riuscito a farsi consegnare l’equivalente di circa 135.000 franchi svizzeri o euro da otto vittime prima di essere arrestato insieme a un complice. Tutte le vittime hanno detto di aver riconosciuto chiaramente la voce del proprio familiare al telefono.

La prima frode di questo genere, però, risale al 2019, quando un dirigente di un’azienda britannica nel settore energetico fu ingannato da un deepfake della voce del proprio direttore, di cui riconobbe anche il lieve accento tedesco, ed eseguì il suo ordine di trasferire immediatamente 220.000 euro sul conto di un asserito fornitore, dal quale poi i soldi presero il volo.

Questa tecnica richiede tre ingredienti: un campione della voce della persona da imitare, facilmente estraibile da qualunque video o messaggio vocale postato su Internet; il software di intelligenza artificiale o machine learning per alterare la propria voce in tempo reale, altrettanto facile da procurare; e delle informazioni personali dettagliate e attendibili sulla persona che si vuole simulare.

Il 2023 sembra essere l’anno di svolta per queste frodi: secondo Sumsub, società specializzata nel settore della verifica di identità online, il numero dei deepfake rivelati nel primo trimestre di quest’anno ha superato del 10% quello di tutto il 2022. E gli esperti sospettano che furti massicci di dati personali attendibili, come quello messo a segno dal gruppo criminale informatico russofono Cl0p, descritto nella puntata precedente del Disinformatico, servano per alimentare proprio questo tipo di falsificazione dell’identità [visto che stranamente Cl0p non ha inviato richieste di riscatto alle aziende di cui ha saccheggiato gli archivi]


Questa situazione mette in crisi qualunque banca o pubblica amministrazione che si appoggi all’identificazione via Internet per gestire i conti o le posizioni degli utenti: oggi va molto di moda permettere alle persone di aprire e gestire un conto corrente o interrogare un servizio sanitario tramite telefonino, usando un video in tempo reale per verificare l’identità invece di presentarsi a uno sportello, perché questo riduce i costi per l’azienda ed è più comodo per l’utente.

Ma di fronte ai deepfake video in tempo reale questo risparmio e questa comodità vanno rimessi seriamente in discussione, e per difendersi da truffe come queste dobbiamo tutti imparare a non fidarci dei nostri sensi e dei nostri istinti se c’è di mezzo un dispositivo elettronico, e a chiedere conferme di altro genere, come per esempio una parola chiave concordata o una risposta a una domanda su qualcosa che nessun altro può sapere.

[Un’altra possibilità è chiedere alla persona in video di mettersi di profilo: questo spesso fa impazzire i software di deepfake in tempo reale, che difficilmente vengono addestrati per questa posizione del viso]

Fiumi di fake news generate dall’IA per fare soldi

Stanno diventando sempre più numerosi i siti Internet che pubblicano enormi quantità di notizie false generate automaticamente tramite l’intelligenza artificiale, e ben 141 marche molto conosciute stanno finanziando questi siti senza rendersene conto. Lo segnala Newsguard, un sito di valutazione dell’affidabilità delle fonti di notizie gestito da giornalisti che offre anche un’estensione per browser che avvisa l’utente quando visita un sito che pubblica regolarmente notizie false.

Soltanto nel mese di maggio 2023, gli analisti di NewsGuard hanno più che quadruplicato il numero di siti di fake news segnalati dal loro software, da 49 a 217, e ne hanno aggiunti altri sessanta a giugno. Sono insomma quasi trecento i siti di questo genere catalogati, che pubblicano fino a 1200 pseudoarticoli al giorno ciascuno e coprono almeno 13 lingue, dall'arabo al ceco all’italiano al thailandese. Per fare un paragone, un giornale medio pubblica circa 150 notizie al giorno.

È un vero e proprio fiume in piena di fake news, reso possibile da strumenti automatici di generazione di testi come ChatGPT, e confezionato in siti che hanno una veste grafica e un nome apparentemente generici e rispettabili. Un fiume che era perfettamente prevedibile non appena sono nati i generatori di testi.

Ma l’intelligenza artificiale non è l’unica tecnologia che permette l’esistenza di questi enormi avvelenatori dell’informazione: c’è di mezzo anche il cosiddetto programmatic advertising. Questi siti ingannevoli esistono allo scopo di fare soldi, non di disinformare in senso stretto, e fanno soldi grazie al fatto che i grandi servizi di pubblicità online, come per esempio Google e Meta, usano un complesso meccanismo automatico di piazzamento delle pubblicità nei vari siti, basato sulla profilazione degli interessi degli utenti: il programmatic advertising, appunto.

Il risultato di questo meccanismo è che gli inserzionisti spesso non hanno idea di dove venga pubblicata la loro pubblicità, e siccome i servizi pubblicitari pagano i siti che ospitano le loro inserzioni, alcuni imprenditori senza scrupoli creano siti pieni di notizie-fuffa per incassare soldi dalle pubblicità. Più pagine di notizie si pubblicano, più spazi pubblicitari ci sono, e quindi a loro conviene trovare il modo di generare il maggior numero possibile di pagine. E quel modo è, appunto, l’intelligenza artificiale.

Il risultato a volte è quasi comico, come nel caso di un sito di pseudonotizie brasiliano, Noticias de Emprego (noticiasdeemprego.com.br), nel quale un “articolo” inizia addirittura con le parole “Mi scuso, ma come modello linguistico di intelligenza artificiale non sono in grado di accedere a collegamenti esterni o pagine Web su Internet”.

Fonte: Newsguard.
E non è neanche l’unico caso, come dimostra questa ricerca mirata in Google.

È un indicatore decisamente sfacciato e facilmente riconoscibile di contenuti generati dall’intelligenza artificiale senza la benché minima supervisione umana, eppure i grandi servizi pubblicitari online non sembrano fare granché per evitare di foraggiarli con i soldi delle grandi marche: banche, agenzie di autoloneggio, compagnie aeree, catene di grandi magazzini e altro ancora. Eppure le regole pubblicitarie di Google dicono molto chiaramente che non vengono accettati siti che includono contenuti generati automaticamente di tipo spam. Nonostante questo, Newsguard nota che oltre il 90% delle pubblicità che ha identificato su questi siti di pseudoinformazione è stato fornito da Google.

Possiamo difenderci da questi siti ingannevoli e ostacolare i loro guadagni installando nei nostri computer e telefonini dei filtri che blocchino le pubblicità, i cosiddetti adblocker, che sono gratuiti, e strumenti che segnalino i siti di questo genere, come appunto quello proposto da Newsguard, che però costa 5 euro al mese.

Ovviamente il problema sarebbe risolvibile a monte vietando del tutto il tracciamento pubblicitario e l’inserimento automatico delle pubblicità nei siti, ma i legislatori sembrano molto riluttanti ad agire in questo senso, mentre Google pare così preso dal vendere spazi pubblicitari da non controllare dove siano quegli spazi. E così, in nome dei soldi, Internet si riempie di siti spazzatura che tocca a noi scansare e ripulire a spese nostre.

Fonte aggiuntiva: Gizmodo.

Immagini di abusi su minori generati dall’IA

Il terzo disastro perfettamente prevedibile di questa rassegna è anche il più infame. La BBC ha pubblicato un’indagine che ha documentato l’uso di software di intelligenza artificiale per generare immagini sintetiche di abusi sessuali su minori [CSAM, dalle iniziali di Child Sexual Abuse Material] e venderle tramite abbonamenti a comuni servizi di condivisione di contenuti a pagamento come Patreon, che sono inconsapevoli di essere coinvolti.

Il software di intelligenza artificiale usato, secondo la BBC, è Stable Diffusion, la cui versione normale ha delle salvaguardie che impediscono di produrre questo tipo di immagine. Ma queste salvaguardie sono facilmente rimovibili da chi installa questo software sul proprio computer, e a quel punto è sufficiente dare una descrizione testuale del contenuto che si desidera e il software, impassibile, lo genererà.

La quantità di materiale di questo genere prodotto in questo modo è enorme: ciascun offerente propone in media almeno mille nuove immagini al mese. E anche se c’è chi si giustifica dicendo che nessun bambino reale viene abusato perché le immagini sono appunto sintetiche, le autorità e gli esperti notano che queste immagini sintetiche vengono generate partendo da un repertorio di immagini reali e che gli stessi siti che offrono le pseudofoto propongono spesso anche immagini di abusi effettivi. In ogni caso, la detenzione di immagini di questo genere, reali o generate, è reato in quasi tutti i paesi del mondo.

Verrebbe da pensare che materiale atroce di questo genere sia relegato nei bassifondi di Internet, magari nel tanto mitizzato dark web, ma molto più banalmente si trova spesso su normali siti web. Secondo la BBC, infatti, in Giappone la condivisione di disegni sessualizzati di bambini non è reato, e quindi molti offerenti di queste immagini le pubblicano apertamente, usando hashtag identificativi appositi. Uno di questi siti residenti in Giappone, Pixiv, ha dichiarato che dal 31 maggio scorso ha bandito “tutte le rappresentazioni fotorealistiche di contenuti sessuali che coinvolgono minori”. Noterete che Pixiv parla solo di immagini fotorealistiche. E viene da chiedersi come mai questo divieto sia entrato in vigore solo ora.

Uno dei problemi più grandi di questa montagna di immagini di abusi è che rende sempre meno efficaci gli strumenti adottati dalle forze di polizia e dai social network per tracciare e bloccare questo materiale. Quando le autorità trovano un’immagine o un video di questo genere, ne producono una sorta di impronta digitale matematica, un hash, che non contiene l’immagine e non permette di ricostruirla ma consente di identificarla automaticamente. Gli elenchi di questi hash possono essere condivisi senza problemi e inclusi nei filtri automatici delle applicazioni, dei siti di condivisione e dei social network. Ma se i software di intelligenza artificiale consentono di generare innumerevoli immagini sempre differenti, questo sistema collassa rapidamente.

L’unica difesa possibile, oltre all’informazione, all’educazione, a una discussione schietta della questione e al lavoro incessante delle autorità, che hanno riscosso successi importanti anche recentemente in Svizzera, è segnalare queste immagini ai facilitatori dei servizi di pagamento, che bloccheranno gli account e i soldi che contengono. Ma è un lavoro delicatissimo, nel quale la prima regola è mai mandare copie di queste immagini a nessuno, neppure alle autorità stesse, perché si diventerebbe detentori e condivisori di questo materiale. Si deve mandare sempre e solo il link che porta al contenuto e non conservare copie o screenshot di quel contenuto. Lo sa bene, paradossalmente, proprio la BBC, quella che ha svolto quest’indagine delicatissima: nel 2017 segnalò che Facebook stava ospitando immagini di abusi su minori e fece l’errore di inviare degli screenshot di queste immagini a Facebook invece di mandare i link come richiesto. Per tutta risposta, Facebook fu costretta a denunciare alla polizia i giornalisti dell’emittente britannica.

In casi come questi, è meglio stare alla larga ed evitare ogni tentazione, per quanto umanamente comprensibile, di vigilantismo. 

Fonte aggiuntiva: Ars Technica.

Intanto, è ormai chiaro che il vaso di Pandora dell’intelligenza artificiale è stato aperto, nonostante tutte le ammonizioni, non lo si può più chiudere e ci tocca conviverci. Non resta che sperare che da questo vaso escano anche tante applicazioni positive. Ma questa è un’altra storia, da raccontare in un’altra puntata.

Chiusura

Anche questa puntata del Disinformatico è infatti giunta al termine: grazie di averla seguita. Questo podcast è una produzione della RSI Radiotelevisione svizzera. Le nuove puntate del Disinformatico vengono messe online ogni venerdì mattina presso www.rsi.ch/ildisinformatico e su tutte le principali piattaforme podcast. I link e le fonti di riferimento che ho citato in questa puntata e nelle precedenti sono disponibili presso Disinformatico.info. Per segnalazioni, commenti o correzioni, scrivetemi una mail all’indirizzo paolo.attivissimo@rsi.ch. A presto.

2022/07/01

FBI avvisa: occhio ai deepfake nei colloqui di lavoro online

Questo articolo è disponibile anche in versione podcast audio.

Capita sempre più spesso di fare riunioni e incontri in videoconferenza, a distanza, e anche i colloqui di lavoro, per selezionare candidati per un impiego, stanno vivendo la stessa tendenza ad avvenire online invece che di persona. Ma l’FBI ha pubblicato un avvertimento che segnala un aumento parallelo dell’uso di dati personali rubati e di deepfake, ossia di immagini video false generate in tempo reale, nell’ambito di questi colloqui. In pratica il candidato si spaccia per qualcun altro e mostra, durante il colloquio, immagini di un volto che non è il suo o fa sentire la voce di qualcun altro.

I colloqui di lavoro falsificati, dice l’agenzia statunitense, riguardano offerte per impieghi che verranno svolti da remoto o da casa, per cui è possibile che il datore di lavoro non incontrerà mai di persona il lavoratore. In particolare, questi colloqui deepfake avvengono quando il lavoro riguarda il settore informatico e darà quindi accesso a dati personali di clienti, dati finanziari, database aziendali o informazioni tecniche confidenziali.

Questo suggerisce che il movente di queste falsificazioni sia l’accesso fraudolento a questi dati preziosi, spesso a scopo di spionaggio o sabotaggio, come segnalato anche da altre agenzie governative statunitensi a maggio scorso.

Alcuni stati, secondo queste segnalazioni, stanno formando numerosi informatici che poi fingono di risiedere in paesi fidati usando VPN e documenti d’identificazione rubati, usando vari software per alterare voce e video per sembrare affidabili e rassicuranti nei colloqui di selezione fatti attraverso le normali piattaforme di offerta e ricerca di lavoro, e si fanno assumere dalle aziende per poi trafugarne dati o facilitare intrusioni da parte di loro complici.

L’FBI, le altre agenzie statunitensi e gli esperti del settore raccomandano alcune semplici verifiche. I dettagli della storia personale del candidato, come per esempio gli studi svolti, il luogo dove dichiara di risiedere, sono coerenti? Cosa succede se lo si chiama a sorpresa in videochiamata? Come reagisce alla proposta di spedire un plico all’indirizzo che ha dichiarato sui documenti che ha fornito? Se si tratta di un impostore, queste situazioni lo metteranno in seria difficoltà.

Le autorità e gli esperti segnalano anche alcuni trucchi per riconoscere un deepfake video o fotografico durante una videochiamata: per esempio, i gesti e i movimenti delle labbra della persona che si vede in video non corrisponderanno completamente al parlato. Oppure suoni inattesi, come un colpo di tosse o uno starnuto, non verranno falsificati correttamente dai programmi per creare deepfake in tempo reale.

L’MIT Media Lab ha creato una guida e un sito, Detect Fakes, che consente a ciascuno di valutare la propria capacità di riconoscere immagini personali falsificate e consiglia altri trucchi per rivelare una falsificazione: per esempio, guardare le guance e la fronte della persona che appare in video, perché se la pelle di queste zone è troppo liscia o troppo rugosa rispetto al resto del volto è probabile che si tratti di un falso. Si possono anche guardare le ombre della scena, che spesso nei deepfake non sono coerenti, oppure gli occhiali, che spesso hanno riflessi eccessivi, o ancora la barba o le basette o i nei, che i deepfake sbagliano facilmente. Un altro trucco è guardare fissa la persona negli occhi per vedere se sbatte le palpebre o no: anche questo è un errore frequente dei software che alterano il volto.

Cimentatevi, insomma, con il test dell’MIT Media Lab, che trovate presso detectfakes.media.mit.edu. Fra l’altro, saper riconoscere un video falso potrebbe servirvi anche fuori dell’ambito di lavoro, dato che anche molti truffatori online in campo privato usano queste stesse tecniche per fingere di essere persone seducenti e corteggiatrici per poi spingere le vittime a mostrarsi in video in atteggiamenti estremamente ricattabili.

Fonti aggiuntive: Gizmodo, Graham Cluley, Gizmodo.

2022/03/24

La guerra dei deepfake

Da tempo gli esperti avvisavano che prima o poi qualcuno avrebbe creato disinformazione intorno a un tema di importanza mondiale usando la tecnica del deepfake, quella in cui un video viene alterato applicando al corpo di una controfigura il volto di una persona famosa e poi animando quel volto in modo che sembri realistico e tridimensionale. Spesso questa tecnica viene sfruttata per far fare e dire a qualcuno qualcosa che non ha in realtà né fatto né detto.

Il momento di cui avvisavano gli esperti è arrivato: l’aggressione della Russia ai danni dell’Ucraina viene combattuta anche a colpi di propaganda, e i deepfake sono diventati parte integrante di questa propaganda.

È infatti in circolazione un video nel quale il presidente ucraino Zelensky sembra chiedere ai civili di deporre le armi e arrendersi ai militari russi. Il video ha ottenuto una certa visibilità sui social network, ma è stato segnalato dai media ucraini e rimosso dai social abbastanza prontamente; inoltre Zelensky stesso è apparso in un altro video per smentire il deepfake.


In questo caso è abbastanza facile capire che il video del presunto invito alla resa è un falso: il volto sovrapposto di Zelensky ha una nitidezza e una colorazione nettamente differenti da quelli del resto del corpo. Ma è importante non fermarsi alla semplice analisi tecnica del video: bisogna sempre controllarne la fonte.

Zelensky, nota Snopes, ha registrato numerosi video usando lo stesso sfondo, ma li ha sempre pubblicati sui suoi profili social e sulle pagine social ufficiali del governo ucraino. Il video falso, invece, non è mai apparso su queste fonti.

Sta circolando anche un altro deepfake legato all’invasione russa dell’Ucraina: è un video nel quale una persona che sembra essere il presidente russo Putin annuncia apparentemente la fine della guerra e dice che è stata raggiunta la pace con l’Ucraina e che verrà ripristinata l’indipendenza della Crimea.

La qualità tecnica di questo secondo deepfake è decisamente superiore a quella del video precedente: la risoluzione del volto e la sua ombreggiatura sono coerenti con il resto del corpo, e gli unici indizi tecnici di manipolazione sono il fatto che la bocca del finto Putin non è ben sincronizzata con il parlato e che la voce non è quella di Putin. Ma sono sottigliezze che possono passare inosservate per via dell’emotività della situazione, della scarsa familiarità di molti con la vera voce del presidente russo e della bassa qualità delle immagini se viste sugli schermi molto piccoli degli smartphone.

Gli esperti sono riusciti a scoprire che il falso video di Putin è stato realizzato partendo da un video reale pubblicato dal Cremlino il 21 febbraio.

Anche in questo caso, quindi, vale la regola della fonte e del contesto. Non basta che un video sia tecnicamente realistico: bisogna anche vedere se viene pubblicato e confermato dalla fonte ufficiale che dovrebbe averlo prodotto.

2022/02/17

Le voci deepfake in Star Wars: The Book of Boba Fett

Questo articolo è disponibile anche in versione podcast.

Allerta spoiler: questo articolo rivela alcuni avvenimenti importanti delle serie TV The Mandalorian e di The Book of Boba Fett. 

Se state seguendo le serie TV The Mandalorian e The Book of Boba Fett, conoscerete già una delle loro sorprese più emozionanti: torna un personaggio amatissimo da tutti i fan di Star Wars, e torna ringiovanito, grazie alla tecnologia digitale, con risultati incredibilmente realistici. Non vi preoccupate: non dirò di chi si tratta. Non subito, perlomeno [non è Yoda come l’immagine qui accanto potrebbe far pensare].

Ma a differenza di altri attori e attrici del passato, che sono stati ricreati o ringiovaniti creando un modello digitale tridimensionale dei loro volti e poi allineando faticosamente questo modello alle fattezze attuali dell’attore o di una sua controfigura, con risultati spesso discutibili e innaturali, sembra (ma non è ancora confermato ufficialmente) che in questo caso sia stata usata la tecnica del deepfake.

In pratica, nei deepfake si attinge alle foto e alle riprese video e cinematografiche che mostrano quella persona quando era giovane, si estraggono le singole immagini del suo volto da tutto questo materiale e poi si dà questo repertorio di immagini in pasto a un software di intelligenza artificiale, che le mette a confronto con le riprese nuove dell’attore o della controfigura e sovrappone al volto attuale l’immagine di repertorio, correggendo ombre e illuminazione secondo necessità. Sto semplificando, perché il procedimento in realtà è molto complesso e sofisticato, e servono tecnici esperti per applicarlo bene, ma il principio di fondo è questo.

Sia come sia, il risultato in The Book of Boba Fett, in una puntata uscita pochi giorni fa, lascia a bocca aperta: le fattezze del volto ricreato sono perfette, le espressioni pure, e il personaggio rimane sullo schermo per molto tempo, in piena luce, interagendo in maniera naturale con gli altri attori, mentre in passato era apparso in versione ringiovanita solo per pochi secondi e in penombra, in disparte. 

Mentre la prima apparizione di questo personaggio digitale in The Mandalorian nel 2021 aveva suscitato parecchie critiche per la sua qualità mediocre, nella puntata di Boba Fett uscita di recente l’illusione è talmente credibile che fa passare in secondo piano un dettaglio importante: anche la voce del personaggio è sintetica.

Può sembrare strano, visto che la persona che lo interpreta è ancora in vita e recita tuttora (non vi dico chi è, ma l’avete probabilmente già indovinato). Invece di chiamarla a dire le battute e poi elaborare digitalmente la sua voce per darle caratteristiche giovanili, i tecnici degli effetti speciali hanno preferito creare un deepfake sonoro.

Lo ammette candidamente Matthew Wood, responsabile del montaggio audio di The Mandalorian, in una puntata di Disney Gallery dedicata al dietro le quinte di questa serie: delle registrazioni giovanili dell’attore sono state date in pasto a una rete neurale, che le ha scomposte e ha “imparato” a recitare con la voce che aveva l’attore quando era giovane. 

La rete neurale in questione è offerta dall’azienda Respeecher, che offre servizi di ringiovanimento digitale per il mondo del cinema, permettendo per esempio a un attore adulto di dare la propria voce a un bambino oppure di ricreare la voce di un attore scomparso o non disponibile.

La demo di Respeecher in cui la voce di una persona normale viene convertita in tempo reale in quella molto caratteristica di Barack Obama è impressionante:

In The Book of Boba Fett, il tono è corretto, le inflessioni della voce sintetica sono azzeccate, ma la cadenza è ancora leggermente piatta e innaturale.

Ci vuole ancora un po’ di lavoro per perfezionare questa tecnologia, ma già ora il risultato della voce sintetica è sufficiente a ingannare molti spettatori e a impensierire molti attori in carne e ossa, che guadagnano dando la propria voce a personaggi di cartoni animati o recitando audiolibri.

Ovviamente per chi ha seguito la versione doppiata della serie tutto questo lavoro di deepfake acustico è stato rimpiazzato dalla voce assolutamente reale del doppiatore italiano (Dimitri Winter), ma a questo punto si profila all’orizzonte la possibilità che il deepfake della voce possa consentire a un attore di “parlare” anche lingue straniere e quindi permetta di fare a meno del doppiaggio. Con il vantaggio, oltretutto, che siccome il volto dell’attore è generato digitalmente, il labiale potrebbe sincronizzarsi perfettamente con le battute in italiano, per esempio.

C’è il rischio che queste voci manipolabili a piacimento consentano di creare video falsi di politici o governanti che sembrano dire frasi che in realtà non hanno detto, come ha fatto proprio Respeecher nel 2019 in un caso molto particolare: ha creato un video, ambientato nel 1969, in cui l’allora presidente degli Stati Uniti Richard Nixon annuncia in televisione la tragica morte sulla Luna degli astronauti Neil Armstrong e Buzz Aldrin (mai avvenuta), mettendo in bocca al presidente parole ispirate al discorso che era stato scritto nell’eventualità che la loro missione Apollo 11 fallisse.

Respeecher non è l’unica azienda del settore. Google, per esempio, offre il servizio Custom Voice, che permette di replicare la voce di una persona qualsiasi mandandole un buon numero di campioni audio di alta qualità. Funziona molto bene: infatti non vi siete accorti che da qualche tempo a questa parte i miei podcast sono realizzati usando la mia voce sintetica, data in pasto a un file di testo apposito.

Tranquilli: sto scherzando. Per ora.

2021/12/02

Synthesia, video di attori sintetici dicono quello che volete grazie all’intelligenza artificiale

Ultimo aggiornamento: 2021/12/02 16.55. 

Provate a cliccare su questo link.

La voce che avete sentito non è quella di una speaker professionista: è una voce sintetica. È già un risultato notevole, ma di sistemi di sintesi vocale realistici quasi indistinguibili dalle voci umane ce ne sono tanti.

Però questo, realizzato dalla società britannica Synthesia, è un po’ speciale. Infatti oltre alla voce c’è anche un video, altrettanto sintetico, nel quale l’attrice virtuale recita le parole con movimenti labiali corrispondenti al testo.

Se non fosse per quell’intonazione decisamente robotica del finale, vi sareste accorti della finzione?

L’idea dell’azienda britannica è molto semplice e anche un po’ inquietante per chiunque faccia lo speaker professionista: offrire un modo rapido ed economico per aggiungere al proprio sito dei video professionali in cui delle persone danno istruzioni o forniscono informazioni. Non occorre incaricare un’agenzia, trovare gli attori che parlino correttamente le varie lingue, attivare uno studio e registrare gli attori, con tutti i tempi e i costi che ne derivano.

Il procedimento è estremamente semplice e flessibile, e può essere provato gratuitamente. Si va al sito, Synthesia.io, si clicca su Create a free AI video, si immette il testo (in una qualsiasi di oltre 40 lingue, riconosciute automaticamente, con un limite massimo di 200 caratteri) e poi si clicca su Continue.

Nel giro di pochi minuti, durante i quali il testo che avete immesso viene vagliato per verificare che non sia offensivo o inadatto, secondo le regole etiche del servizio, il video è pronto per l’uso.

Aggiornamento: le regole sono abbastanza elastiche, come segnala @Pagliacci8:

La versione a pagamento è molto più flessibile, con un ampio assortimento di attori virtuali maschili e femminili e molte opzioni di personalizzazione dei formati e dei contenuti, con sfondi su misura e integrazione di presentazioni PowerPoint. Si possono anche creare avatar personalizzati. È una sorta di deepfake commerciale, ma con alcune restrizioni: l’azienda non crea video simulati di persone senza la loro autorizzazione esplicita. Altrimenti sarebbe troppo facile prendere una celebrità o un politico e fargli dire qualunque sconcezza con un labiale molto credibile.

La rapidità di esecuzione e i prezzi (30 dollari al mese per dieci video nell’account base) sono impossibili da eguagliare con degli speaker reali.

Se non fosse per la gestualità limitata e per qualche papera occasionale nell’intonazione o nella sintesi di alcune parole, probabilmente molti attori che campano grazie ai video di comunicazione aziendale sarebbero angosciati di restare disoccupati. Probabilmente questo servizio toglierà loro una parte del lavoro, ma resterà quella più complessa e personalizzata. Nessuno di questi attori virtuali, per ora, può infatti interagire con un prodotto da promuovere o da dimostrare.

La strada per arrivare agli avatar umani indistinguibili dalla realtà è ancora lunga, ma dobbiamo cominciare a chiederci se quell’uomo o quella donna che ci stanno facendo un tutorial perfetto online sono reali o simulati, e allenarci a riconoscere gli indizi che rivelano la sintesi.

2021/02/04

Quando un deepfake “amatoriale” batte gli effetti speciali di Hollywood: The Mandalorian (SPOILER)

ALLERTA SPOILER: se non avete ancora visto il finale della seconda stagione di The Mandalorian, non leggete oltre per evitare rivelazioni che potrebbero guastarne la visione.

---

La puntata finale della seconda stagione di The Mandalorian include una scena in cui compare un attore ringiovanito digitalmente. Non ne cito subito il nome per non rovinarvi la sorpresa, ma è una gran bella sorpresa. 

Il guaio è che il ringiovanimento digitale in questo caso è, come dire, venuto un po’ “piatto” e innaturale, forse anche per colpa dell’estrema segretezza che ha necessariamente circondato tutto il lavoro. Le movenze della testa e le espressioni sono forzate, robotiche, e la luce che illumina il viso sembra sbagliata rispetto all’illuminazione del resto della scena.

Il risultato finale è buono, ma cade proprio nel bel mezzo della famosa Uncanny Valley, ossia quella zona intermedia fra la stilizzazione estrema e il realismo perfetto, che crea emozioni negative, spesso di disagio, nello spettatore.

In sintesi: la Uncanny Valley esprime il concetto che riusciamo a empatizzare facilmente con personaggi creati digitalmente quando sono molto differenti dalla realtà; invece i volti ricreati digitalmente in modo quasi fotorealistico, con le normali proporzioni e fattezze ma senza azzeccarne perfettamente tutte le sfumature e i dettagli, non generano altrettanta empatia e spesso generano ribrezzo. Ci sta simpatico Woody di Toy Story, per esempio, ma è dura empatizzare con i personaggi digitali del film Polar Express o con Shepard di Mass Effect (qui sotto).


Nel ringiovanimento digitale tradizionale, si prende un attore, gli si fa recitare la scena mettendogli una miriade di puntini di riferimento sul volto, e poi un esercito di animatori traccia punto per punto ogni movimento muscolare, ogni ruga della pelle, ogni contrazione, ogni spostamento degli occhi, delle sopracciglia, della bocca o del naso, ventiquattro volte per ogni secondo di ripresa, e applica gli stessi movimenti a un modello digitale del viso ringiovanito o comunque alterato, ottenuto spesso partendo da una scansione tridimensionale del volto del personaggio da replicare.

Le riuscitissime scimmie del remake de Il Pianeta delle scimmie, Gollum del Signore degli anelli, Moff Tarkin e Leia in Star Wars Rogue One o gli alieni di Avatar sono stati creati con questa tecnica, ormai diffusissima, denominata motion capture (o spesso emotion capture, dato che serve per “catturare” le emozioni dell’attore). 

È costosa, ma funziona benissimo per i volti non umani, ma non per quelli umani, che hanno comunque qualcosa di artificiale, magari difficile da identificare ma comunque rilevabile incosciamente anche da una persona non esperta: non sappiamo dire cosa ci sia di sbagliato, ma sappiamo che c’è qualcosa che non va. Abbiamo milioni di anni di evoluzione nel riconoscimento facciale e dei movimenti nei nostri cervelli, e la lettura delle espressioni è una funzione essenziale per la socializzazione e la sopravvivenza, per cui è difficile fregarci, nonostante i tediosissimi e costosissimi sforzi di Hollywood. 

L’unico umano digitale perfettamente indistinguibile che ho visto finora è Rachel in Blade Runner 2049. Questo video fa intuire la fatica spaventosa necessaria per quei pochi, struggenti secondi che dilaniano Deckard.

 

Tutto questo lavoro è assistito dal computer, ma richiede comunque un talento umano e una lunghissima lavorazione sia fisica sia in post-produzione per correggere gli errori del motion capture. Ma oggi c’è un altro approccio: quello dell’intelligenza artificiale, usata per creare un deepfake.

In sintesi: si danno in pasto a un computer moltissime immagini del volto da creare, visto da tutte le angolazioni e con tutte le espressioni possibili, insieme alla ripresa di un attore che recita la scena in cui va inserito quel volto, e poi lo si lascia macinare. Il computer sceglie l’immagine di repertorio più calzante e poi ne corregge luci e tonalità per adattarle a quelle della scena. Il risultato, se tutto va bene, è un’imitazione estremamente fluida e naturale delle espressioni dell’attore originale, il cui volto viene sostituito da quello digitale. 

Fare un deepfake ben riuscito è soprattutto questione di potenza di calcolo e di tempo di elaborazione, oltre che di un buon repertorio di immagini di riferimento; si riduce moltissimo l’apporto umano degli animatori digitali.

I giovani esperti di effetti digitali di Corridor Crew hanno tentato di correggere la scena imperfetta di The Mandalorian usando appunto un deepfake. A questo punto credo di potervi rivelare che si tratta del giovane Luke Skywalker, generato partendo dalle immagini del suo volto all’epoca de Il Ritorno dello Jedi.

Qui sotto trovate il video del risultato, che è davvero notevole se si considera il tempo-macchina impiegato e le limitatissime risorse economiche in gioco. Un gruppo di ragazzi di talento batte la Disney: questa è una rivoluzione negli effetti speciali. Se volete andare al sodo, andate a 17:20. Buona visione.

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.

2019/10/16

Deepfake sempre più sofisticati: un imitatore “aumentato”

Un imitatore, Jim Meskimen, presta la propria voce e le proprie movenze a questo deepfake, nel quale l’intelligenza artificiale e il talento del suo operatore, Sham00k, sostituiscono le fattezze dell'imitatore con quelle del personaggio imitato. Il risultato è impressionante, specialmente se conoscete le voci originali di questi attori e politici imitati.



Dietro le quinte:

2019/06/14

Deepfake: Facebook non li toglie, neanche se il soggetto è Zuckerberg

Il problema dei deepfake, video generati applicando il volto di qualcuno al corpo di qualcun altro, facendogli fare e dire cose che non ha mai detto o fatto, è delicato: oltre ai divertissement come inserire un attore al posto di un altro in un film e oltre ai video pornografici apparentemente interpretati da celebrità, esistono infatti anche i deepfake politici: video falsi nei quali presidenti o figure politicamente importanti dicono o fanno cose imbarazzanti o sconvenienti.

La questione politica è emersa fortemente negli Stati Uniti in questi giorni perché un video falso, nel quale la presidente della Camera dei Rappresentanti, Nancy Pelosi, sembra articolare a fatica le parole, è diventato virale, con oltre due milioni di visualizzazioni, ed è stato poi condiviso anche dall’influentissimo Rudy Giuliani, avvocato personale di Donald Trump.

Facebook, però, non ha rimosso il video: lo ha “deprioritizzato” e gli ha affiancato delle informazioni di fact-checking. Secondo il social network, infatti, la gente deve poter prendere le proprie decisioni informate su cosa credere e il compito di Facebook è assicurarsi di fornire alla gente informazioni accurate.

C’è chi trova un po’ pilatesca questa risposta e quindi ha deciso di sfidare Facebook creando e postando su Instagram (che è di Facebook) un deepfake che coinvolge Mark Zuckerberg, facendogli dire, in modo estremamente realistico e abbastanza credibile, cose come questa: “Immaginatevi questo per un secondo: un solo uomo che ha il controllo totale dei dati rubati di miliardi di persone, tutti i loro segreti, le loro vite, i loro futuri. Io devo tutto questo alla Spectre. La Spectre mi ha mostrato che chiunque controlli i dati, controlla il futuro“.


La Spectre dei film di James Bond, tuttavia, non c’entra nulla: si tratta del nome scelto da due artisti, Bill Posters e Daniel Howe, e dall’agenzia pubblicitaria Canny per un’installazione artistica presentata il mese scorso nell’ambito di un festival che si tiene a Sheffield, nel Regno Unito.

Un portavoce di Instagram ha dichiarato che questo deepfake verrà gestito come tutti gli altri: se verrà segnalato come falso e i fact-checker esterni confermeranno che è falso, verrà filtrato ed escluso. Di diverso avviso è invece la CBS, il cui logo compare nel video: la rete televisiva statunitense ha chiesto direttamente la rimozione completa.

Ci vuole però un occhio attento per accorgersi delle leggere imperfezioni di questi deepfake, e se le cose dette o fatte nei video sono plausibili è facile che gli utenti non si accorgano della falsificazione e non notino neanche gli avvisi dei fact-checker. Non è ancora chiaro, insomma, se la semplice etichettatura sia un rimedio sufficiente. Guardate per esempio quest’altro video della Spectre, che raffigura Kim Kardashian:



Secondo voi, quanti utenti distratti si accorgeranno che quello che dice è falso?

2018/10/17

Harrison Ford in “Solo”? Con Deepfakes si può

Sul canale Youtube derpfakes è uscita questa demo nella quale il giovane Harrison Ford prende il posto di Alden Ehrenreich. Considerato che è fatto senza il dispiego di mezzi di Hollywood ma da un semplice appassionato, il risultato è davvero notevole.

2018/06/15

Come si riconosce un video Deepfake? A occhio

Sì, è Nicolas Cage nei Predatori
dell’Arca Perduta
(deepfake).
La tecnologia di manipolazione deepfake, che consente di sostituire i volti nei video in maniera quasi completamente automatica, crea una certa inquietudine perché quando è usata bene consente di ottenere risultati estremamente credibili con un impegno di risorse tecniche molto modesto (basta un computer domestico).

L’idea che ci si possa trovare circondati da video falsi indistinguibili dagli originali ha ovviamente delle forti implicazioni in molti campi, dalla politica al giornalismo alla documentazione storica alle indagini giudiziarie. Ma la ricerca scientifica corre veloce anche nel settore dello smascheramento di questi falsi, proponendo tecniche di analisi e identificazione sempre più ingegnose.

Tre ricercatori della State University of New York hanno pubblicato una di queste tecniche nel paper In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking, che suggerisce di esaminare matematicamente il movimento delle palpebre nei video per capire se è naturale o no e quindi rivelare eventuali falsificazioni.

Le persone sbattono le palpebre in media circa 17 volte al minuto: questa cadenza aumenta durante una conversazione e diminuisce durante la lettura. Ma gli attuali software di generazione dei deepfake non tengono conto di questo fenomeno, per cui una cadenza errata, misurata da un apposito software, rivela la manipolazione.

Secondo i ricercatori, fra l’altro, migliorare i deepfake per includere la cadenza corretta non è facile, perché i dataset usati per “addestrare” questi programmi di solito non contengono immagini dei volti-bersaglio con gli occhi chiusi. I falsificatori dovranno quindi inventarsi un modo per aggiungere il movimento corretto delle palpebre. La gara fra falsificatori e smascheratori non conosce soste.

2018/04/19

Riconoscere i video manipolati con l’Intelligenza artificiale

Sta circolando su Internet un video nel quale l’ex presidente degli Stati Uniti Barack Obama, dalla Casa Bianca, fa un discorso formale per avvisare che “stiamo entrando in un’era nella quale i nostri nemici possono far sembrare che chiunque abbia detto qualunque cosa in un qualunque momento” e poi usa un termine volgare per definire l’attuale presidente Trump.

Una caduta di stile decisamente insolita per Obama, che è il primo sintomo che il video è falso: è un cosiddetto deepfake, ossia un video realizzato usando tecniche di intelligenza artificiale per applicare automaticamente il viso di una persona sopra una ripresa del volto di un’altra.

In questo caso il soggetto originale è il creatore del video, il regista, attore e comico premio Oscar Jordan Peele, che ha realizzato il video per mettere in guardia contro questo nuovo traguardo della falsificazione digitale, grazie al quale, o forse per colpa del quale, non possiamo più credere a quello che vediamo online se non proviene da una fonte attendibile.



L’inganno non è ancora perfetto: i movimenti del falso Obama sono ancora leggermente incerti e innaturali, ma il video è comunque sufficiente a ingannare la maggior parte degli spettatori distratti, specialmente se visto sul piccolo schermo di uno smartphone, e la qualità non potrà che migliorare rapidamente man mano che verrà perfezionata la tecnologia. I deepfake sono la nuova frontiera delle fake news.

Sapere che esistono questi falsi video quasi perfetti e riconoscerne le imperfezioni rivelatrici, come per esempio i movimenti imprecisi della bocca, è il primo passo per evitare di esserne ingannati, ma non basta: servono degli strumenti informatici che consentano di rilevare le tracce matematiche della manipolazione. Una sorta di antivirus contro le fake news video.

Per fortuna esiste già: lo hanno presentato di recente alcuni ricercatori dell’Università Tecnica di Monaco, in Germania, e si chiama XceptionNet. Per riconoscere i video falsi usa le stesse tecniche di intelligenza artificiale usate per crearli: i ricercatori gli hanno mostrato oltre un migliaio di video e mezzo milione di immagini, indicandogli quali avevano subìto manipolazioni e quali no, e così XceptionNet ha imparato a identificare i falsi meglio di un essere umano.

Durante i test condotti dai ricercatori, guidati dal professor Matthias Niessner, le persone alle quali veniva mostrato un assortimento di video veri e falsi li classificavano correttamente nel 50% dei casi, mentre il software azzeccava la risposta giusta dall’87% al 98% dei casi, specialmente quando doveva classificare video fortemente compressi, che sono particolarmente difficili da diagnosticare per gli esseri umani.

Il software, descritto nell’articolo scientifico dei ricercatori intitolato FaceForensics: A Large-scale Video Data Set for Forgery Detection in Human Faces, non è ancora disponibile al pubblico, ma i suoi creatori si aspettano che venga integrato direttamente nelle app usate per navigare in Rete o guardare video, in modo da analizzare i video guardati e consentire all’utente di ricevere automaticamente un avviso se un’immagine o un video che sta guardando ha subìto interventi di modifica.

In attesa che arrivi sul mercato questo rivelatore di fake news video è comunque opportuno imparare ad essere scettici su quel che si vede in Rete e anche sui mezzi di comunicazione di massa tradizionali, e aguzzare la propria intelligenza naturale.


Questo articolo è basato sul testo preparato per il mio servizio La Rete in 3 minuti per Radio Inblu del 19 aprile 2018. Fonte aggiuntiva: Digital Trends, Technology Review, Svencharleer.com.

2018/01/26

Intelligenza artificiale sostituisce volti nei video, inganno quasi perfetto


La GIF animata un po’ troppo rivelatrice dell’attrice di Star Wars Daisy Ridley che vedete qui sopra è un falso: il volto della Ridley è stato applicato al corpo di un’altra persona e segue tutti i movimenti dell’originale. Niente di nuovo in sé, ma la differenza è che questo effetto non è stato prodotto da una squadra di artisti digitali in uno studio cinematografico specializzato: è stato prodotto amatorialmente da FakeApp, un programma di intelligenza artificiale su un computer domestico di media potenza.

Tutto quello che serve, oltre al video originale in cui sostituire il volto, è un numero molto elevato di immagini del volto da inserire, una scheda grafica Nvidia, e un po’ di pazienza: l’elaborazione richiede molte ore e spesso produce risultati disastrosi, per cui va ripetuta effettuando correzioni e regolazioni manuali. Ma i successi sono impressionanti.

Ovviamente esistono usi innocui (tipo inserire il proprio volto al posto di quello di un attore in un film celebre), ma c’è soprattutto la possibilità di creare video falsi imbarazzanti a scopo di ricatto, molestia o di produzione di notizie false estremamente credibili (immaginate il video di un discorso di un politico), o di creare video pornografici raffiguranti celebrità o qualunque altra persona di qualunque età.

È già nata su Reddit una sezione (attenzione: contiene materiale non adatto agli animi sensibili) di, come dire, appassionati, dedicata principalmente alla creazione di filmati di questo genere, spesso con risultati praticamente perfetti.

Un esempio della potenza di questa tecnologia alla portata di tutti è dato da questo rifacimento di una celebre scena di Rogue One, nella quale il volto della giovane Carrie Fisher è stato ricreato digitalmente con mezzi iperprofessionali ma con risultati discutibili. La versione generata dall’intelligenza artificiale su un computer domestico (sotto) è a bassa risoluzione, ma è a mio avviso meno innaturale e più fedele di quella generata dai megacomputer di Hollywood (sopra).

Aggiornamento: Il confronto di cui parlo qui sopra è stato rimosso.



Chi non ha un occhio particolarmente allenato a riconoscere le piccole imperfezioni caratteristiche di questi video e non sa che esiste questa tecnologia potrebbe credere che siano reali, con tutte le conseguenze del caso. Prepariamoci a un futuro nel quale letteralmente non potremo credere ai nostri occhi.


Fonti: BoingBoing, Motherboard, The Register.