Italian Tech

Facebook: "Segnalate i post falsi". Il clic anti-bufale che divide il web

Facebook: "Segnalate i post falsi". Il clic anti-bufale che divide il web
La piattaforma sperimenta una funzione per migliorare i contenuti pubblicati
2 minuti di lettura
CHI non farebbe volentieri a meno delle bufale di ogni sorta che circolano su Facebook, tante da costringere il rapporto 2013 del World Economic Forum a concludere che è proprio la "disinformazione digitale di massa" a costituire "uno dei principali rischi per la società moderna"? Nessuno, devono aver pensato Mark Zuckerberg e soci. E così, da qualche giorno, tra le opzioni per motivare la segnalazione di un post indesiderato se ne è aggiunta, silenziosamente, una che consente di nascondere le "notizie false". L'espressione è insieme precisa e vaga, e il social network ne fornisce esempi non risolutivi: "una notizia deliberatamente falsa", si legge, o "una truffa smascherata da una fonte affidabile". Non esattamente lo stesso, e in ogni caso resta da capire cosa significhi "smascherata", e cosa "una fonte affidabile"; soprattutto, chi lo valuti e secondo quali criteri.

Interpellato da Repubblica , un portavoce di Facebook Italia risponde che quella per rimuovere le "notizie false" è una opzione in fase di sperimentazione; in altre parole, uno degli infiniti test che la piattaforma compie sui suoi utenti, e che il grande pubblico ha cominciato a conoscere con l'esperimento, divulgato lo scorso giugno e molto discusso, sulle emozioni di 700 mila iscritti. "Segnalare storie che non si desidera vedere", scrive ancora Facebook Italia, "aiuta il News Feed a fare un lavoro migliore per mostrare contenuti più rilevanti in futuro".

La ratio, insomma, è la stessa di sempre: massimizzare l'esposizione a ciò che ci piace, e minimizzare quella a ciò che non ci piace; solo a questo modo gli utenti aumenteranno tempo trascorso sul sito e interazioni, con la speranza  -  questo l'obiettivo  -  che prima o poi clicchino su contenuti pubblicitari, o quantomeno producano informazioni utili a crearne di nuovi sempre più mirati ed efficaci. Nell'attesa di scoprire dai data scientist di Menlo Park come vi hanno reagito gli iscritti, Facebook tiene a precisare di non stare operando alcun giudizio di merito sui contenuti segnalati.

Ma sembra una contraddizione in termini, quando ci sono di mezzo il vero e il falso. Soprattutto, la posizione giustifica una preoccupazione, che poi è la stessa ogniqualvolta si parli di segnalazione di contenuti su Facebook: e se gruppi organizzati di utenti, magari a scopi di propaganda politica, si decidessero a segnalare in massa un contenuto vero, ma scomodo, per farlo passare come falso e dunque renderlo meno visibile, per al limite farlo scomparire? La posizione di Facebook è che le segnalazioni "vengono trattate da un team dedicato composto da esperti qualificati in ambito sicurezza". Ma equivale a dotarsi di un pugno di factchecker , di giornalisti che scandaglino per bene la veridicità dei contenuti segnalati? Perché, ed è il risvolto potenzialmente positivo, di questo si tratta: di una introduzione graduale e sperimentale di una sorta di verifica dal basso della bontà delle notizie che circolano sul social network, in modo distribuito e collaborativo.

Contrariamente ad altri tentativi, la massa critica c'è, suggerisce Sergio Maistrello, autore di "Fact-checking, dal giornalismo alla rete" (Apogeo). E potrebbero darsi sviluppi interessanti, come la possibilità di riconoscere ed evidenziare le bufale più note prima della pubblicazione. "Tuttavia come verrebbero trattati i contenuti deliberatamente falsi, ma satirici?", si chiede Maistrello. Inoltre, la verifica delle notizie "il più delle volte è questione di sfumature". Walter Quattrociocchi, dell'Institute for Advanced Studies dell'Università di Lucca, concorda sulla base degli studi che ha condotto proprio sulle modalità di diffusione e fruizione della disinformazione su Facebook. Una questione, precisa lo studioso, "non tanto su ciò che è vero e su ciò che non lo è, quanto sullo scontro partigiano tra visioni diverse del mondo". E in un contesto in cui complottisti e non complottisti non dialogano, questo uno dei risultati sperimentali, la nuova funzione di Facebook "porterà a una maggiore acredine tra fazioni, non facendo che rafforzare le credenze di chi è tacciato di credere in notizie false, e quindi la loro diffusione e fruizione " . L'ennesimo esempio di come un impercettibile cambiamento alla piattaforma possa comportare conseguenze sociali tutt'altro che secondarie.