martedì 21 marzo 2023
L’Autorità garante della concorrenza e del mercato avvia un’istruttoria contro la piattaforma per la challenge (virale) della “cicatrice francese”: «Un rischio per i più piccoli, mancano controlli»
Sfide online: perché l’Antitrust mette TikTok sotto accusa

Reuters

COMMENTA E CONDIVIDI

La decisione ha un peso. Non perché sia destinata a cambiare effettivamente le cose – le leggi vigenti non permettono (e non hanno ancora permesso, da nessuna parte) di veder condannata una piattaforma social per i contenuti “pericolosi” che vi circolano liberamente –, ma perché sui social network e su quei contenuti accende un faro. E apre, di nuovo, un dibattito che è sempre più necessario.

L’Antitrust, ovvero l’Autorità garante della concorrenza e del mercato, ha aperto un’istruttoria e messo nel suo mirino la società irlandese TikTok Technology Limited (con la sua filiale inglese e quella italiana), responsabile per il social omonimo dei rapporti con i consumatori. Il motivo? La pericolosità, appunto, del contenuto che ai consumatori viene veicolato, in particolare «i fruitori del servizio particolarmente vulnerabili quali sono i minorenni». Il riferimento è all’ultima challenge che impazza tra gli adolescenti e che su TikTok è diventata virale, la cosiddetta “cicatrice francese”: ci si piazza davanti alla telecamera accesa, si stringe la guancia all’altezza dello zigomo con violenza tra le dita e ci si procura un livido. Ragazzate, si è detto e ripetuto. E invece no, perché in tempi di profondo disagio adolescenziale, in cui sempre più spesso proprio attraverso i social e l’emulazione di ciò che vi accade si propaga la violenza sugli altri e su se stessi, ferita e cicatrice sono quei video che circolano e rimbalzano nella rete senza controllo, senza filtro. Non importa che a postarli sia stato qualcun altro. Ed è proprio questo che l’Antitrust contesta a TikTok: «La mancata predisposizione di adeguati sistemi di monitoraggio per vigilare sui contenuti pubblicati dai terzi, secondo i parametri di diligenza richiesti» e secondo le stesse linee guida della piattaforma «che contemplano la rimozione di contenuti pericolosi relativi a sfide, suicidio, autolesionismo e alimentazione scorretta».

La piattaforma, manco a dirlo, respinge le accuse: «Oltre 40mila professionisti dedicati alla sicurezza lavorano per mantenere la nostra community al sicuro e prestiamo particolare attenzione a proteggere gli adolescenti – hanno fatto sapere dalla società –. Non autorizziamo contenuti che mostrino o promuovano attività o sfide pericolose, suicidio, autolesionismo o comportamenti alimentari scorretti». E assicura piena collaborazione all’Autorità: «Le nostre policy per il suggerimento dei contenuti aiutano ad assicurare che siano adatti a qualunque tipo di pubblico e mettiamo a disposizione risorse per il benessere e la sicurezza all’interno della nostra app. Siamo pronti a rispondere a qualunque domanda relativa alle nostre policy e procedure». Resta il fatto che quei video circolano, eccome: oggi come due anni fa, quando di hanging challenge (un’altra folle sfida circolata sulla app che consisteva nello stringersi una cintura attorno al collo e resistere il più possibile) morì una bambina di appena 10 anni a Palermo, nel bagno di casa. Asfissiata dalla cintura dell’accappatoio. «Manca controllo, lo ripetiamo da anni. Mancano strumenti. Quando parte una segnalazione su un contenuto pericoloso, oggi, occorre attendere che sia il social network a verificare e a decidere se lo considera tale. In una parola – spiega Marisa Marraffino, avvocata da anni in prima linea nelle cause legate alle nuove tecnologie e alle piattaforme online – il social decide su se stesso». A volte lo fa, a volte no. A volte, più semplicemente, arriva tardi: quando il video è già virale, quando la challenge ha già ucciso (fu il caso di Palermo) o fatto male.

«Ben venga allora la mossa dell’Antitrust – prosegue Marraffino –, ma serve al più presto un intervento». Le associazioni dei consumatori e quelle che riuniscono avvocati, giudici, famiglie, immaginano un’Autorità garante ad hoc, che vigili direttamente su ciò che avviene sui social e sia in grado di intervenire con più tempestività. E battono il tasto sulla prevenzione, che è al cuore del Digital services act (Dsa), la normativa europea approvata nel 2022 e pronta a decollare tra quest’anno e il prossimo: «La legge regolamenta, infatti, le attività di tutti i soggetti online attribuendo per la prima volta alle grandi piattaforme l’onere di vigilare sistematicamente su ciò che in rete fanno circolare. Ciò di cui diventano responsabili, anche, con valutazioni d’impatto annuali» conclude Marraffino. La speranza è che sia la strada per cambiare le cose. Nel frattempo, TikTok rischia una multa salata.


© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: