mercoledì 10 aprile 2019
Dal 14 al 17 aprile al cinema l’inchiesta di Block e Riesewick sulle migliaia di giovani assunti dai colossi social per valutare i contenuti più choccanti. Ma non senza rischi
Una scena di “The Cleaners”, il film inchiesta di Block e Riesewick presentato allo scorso Sundance Film Festival che sarà nelle nostre sale dal 14 al 17 aprile

Una scena di “The Cleaners”, il film inchiesta di Block e Riesewick presentato allo scorso Sundance Film Festival che sarà nelle nostre sale dal 14 al 17 aprile

COMMENTA E CONDIVIDI

In principio l’ambizioso obiettivo di Mark Zuckerberg era quello di regalare con il suo Facebook la possibilità a ciascuno di noi condividere qualunque cosa con chiunque nel mondo. Un sogno, quello della comunità globale, rincorso da tutti gli altri social media, decisi ad abbattere confini geografici ed economici, culturali e razziali. Le cose non sono andate proprio così, lo sappiamo bene, perché quell’ideale universale di comunicazione non è fatto solo di vacanze esotiche, cibi prelibati e buffi animali domestici, ma è quotidianamente minacciato da immagini di violenza, abusi, prevaricazioni che non solo ledono la dignità delle persone, ma possono condizionare o cambiare la loro vita per sempre. Sappiamo anche che su Facebook, Instagram, You Tube, Twitter, solo per citare i principali social media, non compare tutto quello che viene pubblicato dagli utenti. Ma è davvero un algoritmo a decidere ciò che vediamo?

The Cleaners - Quello che i social non dicono , l’inchiesta giornalistica di Hans Block, Moritz Riesewick presentata in anteprima mondiale allo scorso Sundance Film Festival e nelle nostre sale dal 14 al 17 aprile con I Wonder Pictures, ci conduce in un appassionante viaggio dietro le quinte del web, dalla Silicon Valley ai grattacieli di Manila, capitale delle Filippine, dove decine di migliaia di giovani vengono assunti come “spazzini digitali” e durante le dieci ore di turno lavorativo selezionano circa 25mila foto e video, censurando tutto ciò che è inappropriato secondo le leggi e le linee guida che la maggior parte delle comunità on line si sono date. Il documentario dunque scava nelle vite di cinque “moderatori di contenuti”, rivelando i profondi traumi psicologici ai quali sono sottoposti, e si domanda su che basi vengano definiti i termini di idoneità e “contenuto appropriato”, ma al tempo stesso esamina anche in che modo le decisioni prese sul campo possono influenzare la vita e il sistema politico nel mondo.

Il film riflette allora sulla necessità, ma anche i rischi della censura, mettendo in relazione i “ripulitori” con i loro presidenti della Silicon Valley, tra cui Nicole Wong, ex responsabile della privacy per Google e Twitter e figura di spicco nell’istituzione di regole per la moderazione del contenuto, Antonio Garcia Martìnez, ex product manager di Facebook. Per la prima volta ascoltiamo la voce di quelle persone chiamate a decidere se un contenuto possa rimanere online o debba essere eliminato, persone costrette a rimanere invisibili e a non rivelare neppure ai familiari la natura del proprio lavoro. «Molte di queste persone – hanno dichiarato i due registi – sentono addirittura come un obbligo cristiano il combattere il male del World Wide Web e mantenere “sane” le piattaforme. Ma dopo un po’ di tempo i sintomi del trauma di cui i moderatori di contenuto soffrono si manifestano simili a quelli dei soldati tornati dalla guerra».

Alcuni moderatori hanno scelto di raccontare l’indescrivibile orrore al quale devono quotidianamente assistere sugli schermi dei loro computer: bambini abusati, violenze e pornografia di ogni tipo, stragi, lente decapitazioni, tanto per fare solo qualche esempio. Immagini scioccanti delle quali non riescono a liberarsi e che non di rado hanno spinto alcuni di loro a togliersi la vita usando le stesse modalità viste e riviste nei video che hanno cancellato. Come se un virus li avesse infettati attraverso lo schermo. «Uno dei grandi equivoci – afferma Tristan Harris, ex design ethicist di Google – è che la tecnologia sia neutra, incapace di modificare la natura umana. Ma la tecnologia ha un obiettivo ben preciso, quello di attirare l’attenzione del maggior numero di persone, e questo è possibile solo amplificando e moltiplicando la rabbia, capace di far emergere il peggio di noi». Il documentario si sofferma anche sul ruolo che Facebook ha giocato in Myanmar nella crisi dei Rohingya, la minoranza più perseguitata al mondo, rivelando la profonda connessione tra fake news, diffusione dell’odio e massacri. Se dunque una “pulizia” è necessaria, quanto spazio è lasciato invece alle diversità, alle minoranze, al dissenso quando molti moderatori di contenuti devono decidere in pochi secondi se un post è da accettare o rimuovere? In caso di dubbio spesso a decidere è il loro istinto e solo una piccola percentuale delle decisioni prese viene controllata dai supervisori.

«Non pensare troppo» è una delle prime regole da imparare. «Con il nostro documentario – aggiungono i registi – vogliamo stimolare un dibattito a lungo rimandato: a circa 15 anni dalla loro invenzione, i social network si sono dimostrati degli strumenti potenti e pericolosi allo stesso tempo. Vogliamo allora riflettere sul percorso che attende le nostre società se la responsabilità della sfera pubblica digitale viene lasciata a compagnie private. La questione della democrazia e della libertà di parola non può avere due sole opzioni, cancella o ignora». Colpiscono infatti le immagini in cui il vicepresidente di Facebook, Colin Stretch risponde con grande imbarazzo nell’aula di un tribunale alla domanda sul software creato per cancellare post in alcune aree geografiche, come la Turchia. Il cosiddetto “geoblocco” consente infatti di eliminare contenuti illegali secondo le regole di un determinato paese che, se non accontentato, oscura quel social media in tutta la nazione. Ma cosa succede, chiede il giudice, quando la protesta contro un governo diventa illegale per il governo stesso? Algoritmi e codici generati da computer hanno l’obiettivo di tenere a bada il dibattito che si alimenta sui siti dei diversi social anche se il loro sviluppo non consente di eseguire il lavoro efficientemente. Airwars, ad esempio, una società che documenta i crimini in Siria, ha scoperto che più di un centinaio di video sull’attività militare in quel Paese venivano automaticamente rimossi da Youtube eliminando così le prove stesse dei crimini di guerra.

Una questione assai complessa e spinosa dunque che sottolinea i rischi per la democrazia in un mondo incapace di trovare un equilibrio tra i diversi mezzi di comunicazione e minacciato non solo dalla rete, ma da una censura globale esterna destinata a cancellare per sempre un ideale utopico di società basato sulla condivisione.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: