Questo sito usa cookie di terze parti (anche di profilazione) e cookie tecnici. Continuando a navigare accetta i cookie. Cookie policy
Opinioni

Caso Trump e casi (e doveri) europei. Odio e falsità ci riguardano

Antonio Nicita martedì 12 gennaio 2021

La sospensione, permanente nel caso di Twitter e indefinita nel caso di Facebook, dell’account personale di Donald Trump ha fatto esplodere il dibattito, aperto da tempo, circa le responsabilità, e la discrezionalità, delle piattaforme online nel moderare le conversazioni online. A ben vedere, sono due gli ambiti in cui tale 'responsabilità' si manifesta: uno è diretto e ha a che fare con le cosiddette «politiche di moderazione» che ciascuna piattaforma si dà; l’altro è indiretto e riguarda il ruolo del filtro algoritmico nel selezionare i contenuti che riceviamo o che carichiamo sulle piattaforme.

​Le politiche di moderazione riguardano sia contenuti illegali, come ad esempio violazioni di copyright o immagini pedopornografiche o cyberbullismo, sia contenuti dannosi ( harmful) che vanno dai discorsi d’odio alle strategie di disinformazione, quali quelle che recentemente hanno riguardato origine, cura e profilassi del Covid-19. Queste politiche di moderazione si basano oggi sull’auto-regolazione e in taluni casi, come nell’esperienza della Commissione europea e dell’Agcom, su tavoli di confronto delle linee guida con i regolatori, ma nell’assenza di un quadro normativo e di un presidio sanzionatorio vincolanti. Per questa ragione, la proposta europea, contenuta nel Digital Services Act dello scorso dicembre, cambia il quadro verso la co-regolazione, introducendo meccanismi di trasparenza, accesso ai dati e agli algoritmi, tutele rafforzate per gli utenti, anche nel contraddittorio con le piattaforme in merito alle misure da queste adottate.

L’impianto regolatorio, a oggi, è quello della sezione 230 del Decency Act degli Stati Uniti che rende le piattaforme esenti da responsabilità sia per i contenuti di terzi ospitati che per le politiche di moderazione adottate, purché in buona fede, anche laddove tali moderazioni riguardino diritti protetti dalla Costituzione. Come la libertà d’espressione. Sotto questo profilo, ciò che hanno deciso le piattaforme con l’account personale del Presidente uscente, accusato di veicolare messaggi di incitamento alla violenza e alla sedizione, è compatibile con l’attuale legislazione. E peraltro una delle eccezioni riconosciute dalla Corte Suprema alla tutela della libertà d’espressione, volendola estendere a un soggetto privato come le piattaforme, riguarda proprio l’incitamento a una violenza imminente determinato da 'parole incendiarie'.

Il problema, tuttavia, è quello della discrezionalità, dell’assenza di trasparenza e di contraddittorio, nella mancata verifica di azioni selettive e discriminatorie e così via. Soprattutto per piattaforme globali che sono irrinunciabili, per il grado di copertura e diffusione raggiunto, diventando quelli che la Commissione europea chiama «i custodi della rete» ( Gatekeepers). In un certo senso, la vicenda Trump, rivela questo contrappasso. Anche chi condivide le ragioni delle scelte delle piattaforme, in questo caso, si pone il problema di come governare uno spazio pubblico di discussione in modo trasparente e non discriminatorio. Siamo quindi a una svolta che le stesse piattaforme sembrano, in qualche misura, sollecitare. La scelta alternativa, auspicata a suo tempo da Trump con il suo Executive Order, andava nella direzione opposta: lasciare le piattaforme come meri trasportatori di contenuti, in ossequio al mito della libertà d’espressione senza regola alcuna.
Questa strada appare ormai definitivamente abbandonata e questo è un bene per due ragioni. La prima, perché le stesse piattaforme oggi ammettono che esiste una relazione diretta tra strategie di disinformazione (incluso l’hate speech) e incitamento alla violenza.

La seconda perché accanto alla moderazione c’è l’opera di filtro algoritmico che agisce da acceleratore di fenomeni di polarizzazione. E spesso i semplici messaggi di allerta non hanno alcun effetto, giacché molti messaggi di incitamento all’odio o alla violenza sono 'visti' dagli utenti proprio grazie alla profilazione dell’algoritmo. Si apre dunque, con l’iniziativa europea, una strada, tardiva, sul tema della co-regolazione dei contenuti e i prossimi mesi saranno decisivi per aprire un serio dibattito pubblico sul nostro spazio civile digitale. Senza dimenticare, come sottolinea un recente rapporto del Berkman Klein Center dell’Università di Harvard che sono stati taluni media tradizionali i principali diffusori della campagna di disinformazione sulle elezioni promossa dall’inquilino della Casa Bianca uscente. E c’è da augurarsi che il dibattito sulla disinformazione on-line getti luce anche sulle degenerazioni che avvengono nel cosiddetto opinionated journalism, dove pure esistono regole e responsabilità editoriali, e in certe trasmissioni tv, allergiche a ogni forma di vero contraddittorio e pluralismo, a partire da notizie veritiere e fatti verificati.