Espellere i complottisti dai social fa bene a tutti
venerdì 9 ottobre 2020
Sono passi e neanche tanto piccoli. A poche ore di distanza, due giganti digitali come YouTube e Facebook hanno preso seri provvedimenti per contrastare la disinformazione. E l'hanno fatto in due direzioni molto precise: il Covid-19 e la teoria complottista dei QAnon.
Andiamo in ordine. Chi pubblica su YouTube (cioè, sulla più grande piattaforma digitale di video) contenuti sul Covid-19 dovrà sottostare ad alcune regole. Altrimenti i suoi video saranno cancellati. Per la verità le «Norme sulla disinformazione in ambito medico relativamente al Covid-19» sono state pubblicate a fine maggio, ma il primo ottobre c'è stata una stretta (le trovate online qui: tinyurl.com/yxh3dk9z ). Si legge tra l'altro: «YouTube non tollera contenuti relativi al Covid-19 che comportino un serio rischio di esporre gli utenti a danni gravi e che diffondano disinformazione in ambito medico, in contraddizione con le informazioni fornite dall'Organizzazione Mondiale della Sanità (OMS) o dalle autorità sanitarie locali».
Più che un duro colpo alla libertà di espressione, la mossa di YouTube (di proprietà di Google) è un segnale preciso ai creatori di contenuti: non ti vietiamo di manifestare la tua opinione, ma su un tema come il Covid-19 che riguarda la salute di tutti pretendiamo che tu sia molto serio e rigoroso. Quindi, basta video di negazionisti, creati senza alcuna prova di supporto. Se ci pensiamo bene, questo richiamo alla responsabilità dei creatori su un tema delicato come il Covid-19 va di pari passo a quello che da tempo sta facendo anche Twitter, che è arrivato a segnalare pubblicamente agli utenti alcuni discutibili post sul tema persino del presidente Trump.
Dal canto suo, come accennavamo, Facebook ha annunciato martedì di avere iniziato a bloccare nei suoi social (Facebook e Instagram) pagine, gruppi e profili legati alla teoria del complotto di QAnon. Nata sulla piattaforma 4Chan nel 2017, in tre anni QAnon è diventata così seria e diffusa (avrebbe 100mila adepti in America e qualche migliaio anche in Italia) che i suoi aderenti sono finiti nel mirino del Fbi come «potenziale minaccia terroristica interna». In sintesi: QAnon è una teoria (di estrema destra) secondo la quale esiste un'ipotetica trama segreta contro il presidente degli Stati Uniti Donald Trump e i suoi sostenitori, da parte di un gruppo di poteri forti collusi con reti di pedofilia, pratiche sataniste e cabale occulte, con l'obiettivo di raggiungere il dominio mondiale. Nessuna di queste teorie è mai stata provata, ma i sostenitori di QAnon non hanno dubbi e nei loro spazi si caricano l'un l'altro per prendere di mira questo o quel politico. Soltanto ieri pomeriggio, nel gruppo italiano dei QAnons (che non risiede su Facebook ma in un'altra piattaforma e ha 5.807 membri), l'utente Kora ha postato una lunga lista di «politici e vip italiani satanisti».
Come abbiamo appena visto, espellere i sostenitori di QAnon da Facebook e Instagram non risolve completamente il problema, visto che ci sono altre piattaforme che li accolgono. Ma indubbiamente ne limita fortemente la diffusione e quindi la possibilità di fare danni. Siamo ovviamente ancora lontani da un sistema digitale perfetto, ma il 6 ottobre sulla rivista "Scientific Reports" è apparso uno studio (intitolato «The Covid-19 Social Media Infodemic - lo trovate online qui: tinyurl.com/y2o43wqd ) che contiene un altro segnale confortante. L'ha realizzato un gruppo di ricerca italiano e dimostra che «non è vero che sui social le fake news siano condivise più delle notizie vere e viaggino più velocemente rispetto alle notizie verificate e attendibili». E ancora: «Nei social media più popolari il numero di post inaffidabili rappresenta una piccola frazione». Merito degli utenti, ma soprattutto merito di quei social che hanno iniziato a filtrare le falsità e la violenza.
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: