La guerra di YouTube ai «no vax» è più complessa di quello che appare
venerdì 1 ottobre 2021
«YouTube ha dichiarato guerra ai no vax». Già leggendo titoli così la maggioranza di voi si sarà sentita sollevata mentre alcuni avranno pensato (come il governo russo, al quale è stato bannato un canale YouTube della tv governativa RT per la sua diffusione di fake news sul tema) che si tratta «di un atto di censura». Che la diffusione di video e notizie false sul tema dei vaccini sia un problema, lo abbiamo capito tutti da tempo. Tant'è vero che già nel trimestre aprile-giugno 2020 le piattaforme social avevano rimosso «oltre undici milioni di video con notizie false sul Coronavirus» e cancellato «quasi due milioni di canali». Come ha spiegato in queste ore Matt Halprin di YouTube, «da quando è scoppiata la pandemia solo sulla nostra piattaforma abbiamo rimosso un totale di 1 milione di video». La nuova mossa aumenta solo l'impegno della piattaforma di Google «contro chi diffonde fake news non solo sui vaccini anti Covid-19, ma anche su quelli relativi al morbillo e alla varicella».
Rimangono però alcuni punti in sospeso. Il primo è che una larga parte dei video rimossi e degli account bloccati dalle piattaforme social dall'inizio della pandemia sono stati bannati dai sistemi automatici. E non sempre con piena ragione. Perché le macchine non sono ancora così intelligenti da cogliere tutte le sfumature di un video o di un discorso. Così, per fortuna, devono intervenire moderatori in carne ed ossa. Che sono tanti e costano tanto. Ma non riescono a stare dietro alla mostruosa quantità di video e di post che ogni giorno viene caricata sulle piattaforme. Tanto più che le fake news sui vaccini sono solo la punta di un iceberg ben più grande che tocca moltissimi temi controversi e/o inaccettabili che ogni giorno vengono messi sui social e in Rete.
Permettetemi a questo punto di fare un esempio un po' provocatorio, mi serve per spiegare quanto la questione sia complessa. Se un'intervista che boccia i vaccini, viene rilanciata da alcuni utenti sui social dopo essere andata in onda su un canale tv anche in italiano e viene bloccata significa che – se dipendesse da YouTube e soci – anche certi programmi della tv italiana andrebbero bloccati? E se sì, chi dovrebbe vigilare e come si dovrebbe fare, visto che la tv è ancora la prima fonte di informazione per gli italiani?
Anche Google, Facebook e Twitter si sono mossi in questi mesi per cercare di arginare lo tsunami legato alla disinformazione online sul Covid eppure a molti di noi utenti la situazione non appare migliorata. Perché? Già, perché ci sembra che non si riesca a fermare lo tsunami della disinformazione social? Intanto perché non è solo social ma coinvolge anche siti, programmi tv e radio. E si alimenta perché nell'eccesso dell'informazione ormai tutto sembra valere tutto e – agli occhi di tanti – ciò che pubblica un solo utente ha lo stesso valore di quello che proviene dal New York Times (per fare un esempio). E qualunque tesi (anche la più assurda) si voglia diffondere, in Rete si trova un articolo, un'intervista, un esperto, uno studio (più o meno scientificamente corretto) che la sosterrà anche solo in apparenza, anche solo per fare titolo (tanto il 49% di chi legge si ferma solo al titolo).
Manca ancora un tassello: le piattaforme non hanno deciso di combattere le fake news sui vaccini solo perché hanno a cuore l'ecosistema informativo ma perché i loro investitori pubblicitari sono stufi che i loro spot finiscano in mezzo a video che scatenano odio e rabbia e che finiscono per avere ricadute negative sui prodotti reclamizzati. Perché la lingua che i giganti digitali capiscono meglio è quella degli affari.
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: