Su minori e social si muove anche l'Europa: indagine su Snapchat
La Commissione europea vuole capire se la piattaforma ha le regole adeguate per proteggere gli adolescenti. Entro fine anno l'obbligo di verifica dell'età

A poche ore dalla sentenza della Corte Superiore della California che ha riconosciuto le responsabilità delle piattaforme social e ha condannato Meta Platforms e Alphabet a risarcire una giovane donna che aveva denunciato di avere subito danni per l’eccessiva dipendenza sviluppata fin da bambina su Instagram e Youtube, anche l’Europa fa le sue mosse per proteggere i diritti dei bambini nell’ambiente digitale.
Alle quattro inchieste europee, al momento in corso, che coinvolgono TikTok, Meta, ma anche i grandi colossi cinesi dell’e-commerce come Temu e Shein, si unisce il procedimento formale avviato contro Snap Inc., casa madre di Snapchat, piattaforma social dedicata alla messaggistica, ai brevi video e alle foto.
Bruxelles vuole comprendere se Snapchat sia in grado di garantire un elevato livello di sicurezza, privacy e protezione dei minori online, in conformità con la legge europea sui servizi digitali, il Digital Service Act (Dsa). A differenza delle altre inchieste che avevano al centro soprattutto l’addictive design, vale a dire quelle caratteristiche proprie della struttura delle piattaforme ideate per massimizzare il nostro tempo di permanenza lì sopra che sia per fare acquisti o per vedere contenuti pubblicitari, Snapchat potrebbe aver violato il Dsa anche per altre ragioni: esponendo i minori a tentativi di adescamento e reclutamento a fini criminali, nonché a informazioni sulla vendita di beni illegali, come droghe, o prodotti soggetti a restrizioni di età, come sigarette elettroniche e alcolici.
A oggi Snapchat ha replicato soltanto di aver finora «collaborato pienamente» con la Commissione europea e che continuerà a farlo durante l’indagine.
Le preoccupazioni maggiori riguardano due aspetti: in primis, l’accesso degli under 13, vietato dalla stessa piattaforma, ma aggirabile con una semplice autodichiarazione, un sistema quest’ultimo valutato più debole di altri. E in secondo luogo, la possibilità che alcuni adulti possano aver dichiarato un’età falsa ed essersi spacciati per minorenni su Snapchat, favorendo e alzando il rischio di adescamento per i bambini. Aspetto quest’ultimo che non rientrava in altre indagini sulla verifica dell’età condotte, ad esempio, su TikTok o Meta, come ha confermato un alto funzionario di Bruxelles nell’incontro con la stampa di ieri.
È stato ribadito quanto sia centrale la verifica dell’età, per la quale manca ancora un sistema efficace di controllo: ogni Stato entro l’anno dovrà dotarsi di una sorta di «pass digitale», simile a quanto fatto durante la pandemia con il Covid pass: «un’App che non immagazzina i dati sensibili, che non è in grado di risalire all’identità del detentore, ma ne certifica la maggiore età» ha spiegato un alto funzionario europeo.
Sono finite sotto la lente della Commissione anche alcune impostazioni predefinite della piattaforma Snapchat, in particolare il sistema “Trova amici” e le notifiche push sempre attive, che non fornirebbero garanzie sufficienti di privacy, sicurezza e protezione per gli adolescenti.
Nella stessa giornata di ieri la Commissione europea ha stabilito, in via preliminare, che i siti per adulti Pornhub, Stripchat, XNXX e XVideos violano la legge sui servizi digitali (Dsa) per non aver protetto i minori dall’esposizione a contenuti pornografici. Se le violazioni fossero confermate, questi siti per adulti rischierebbero sanzioni pecuniarie proporzionate all’infrazione fino al 6% del fatturato annuo globale. Come indicato dal Dsa. «Le piattaforme online hanno una responsabilità – ha dichiarato la vicepresidente della Commissione Henna Virkkunen – Oggi compiamo un’ulteriore azione per dare attuazione al Dsa, garantendo che i bambini siano adeguatamente protetti online, come è loro diritto».
E sempre sui diritti di chi è più vulnerabile e in crescita, si è concentrata la giuria di Los Angeles, presso la Corte Superiore della California, arrivando a una storica sentenza. Meta e YouTube sono stati ritenuti responsabili di aver costruito le loro piattaforme seguendo deliberatamente i principi dell’addictive design a cui sono maggiormente esposti i minori. Il verdetto convalida una nuova strategia legale volta a considerare le aziende responsabili per i danni alla persona.
Il giorno prima, in New Mexico, un’altra giuria aveva ritenuto Meta Platforms responsabile di aver violato la legge statale per non aver protetto gli utenti delle sue app dai pedofili. Secondo alcuni analisti del New York Times, queste decisioni storiche mettono in luce la crescente opposizione ai social media e ai loro effetti sui giovani. Dimostrano inoltre che la spinta
al cambiamento potrebbe finalmente prendere slancio. professoressa di diritto alla New York University ed esperta di responsabilità civile e da prodotto. “Ci troviamo in una nuova era, l’era digitale, in cui dobbiamo ripensare le definizioni di prodotto in base a quali soggetti potrebbero disporre di informazioni superiori per prevenire questi infortuni e incidenti”.
Le sentenze derivano da una valanga di migliaia di cause legali intentate contro le aziende di social media da adolescenti, genitori, distretti scolastici e procuratori generali statali. Più di una dozzina di questi processi sono in programma quest’anno, mettendo a nudo una vulnerabilità legale per i giganti della Silicon Valley che potrebbe avere ripercussioni sull’intero settore tecnologico, un tempo inattaccabile.
© RIPRODUZIONE RISERVATA





