venerdì 19 ottobre 2018
In Gran Bretagna «coppie monitorate» per risparmiare sugli assistenti sociali con una formula matematica da «Grande fratello». Già usato negli Usa, ma per gli esperti è «altamente pericoloso»
L'algoritmo si infila tra genitori e figli per scoprire gli abusi
COMMENTA E CONDIVIDI

Sotto l’occhio invadente e mal disposto dello Stato che fruga in ogni angolo della loro vita privata fin dai primi giorni di vita di quel bambino. E se danno qualche segno di insofferenza, di voler difendere almeno la possibilità di essere bravi genitori, vengono subito catalogati come potenziali «abusatori», non in grado di accudire quella creatura che neppure è ancora nata. Sembra uno scenario da “1984” di Orwell e, invece, capita nella Gran Bretagna di Theresa May dove i servizi sociali, negli ultimi dieci anni di austerity, si sono visti ridurre il budget del 50 per cento.
Per sostituire gli assistenti sociali che sono stati licenziati hanno cominciato a ricorrere ad algoritmi ai quali è stato affidato il compito di individuare genitori che potrebbero «picchiare o usare violenza sui figli». «L’assessorato ai servizi sociali di Hackney, borgo londinese nella parte nord est della città, dove abito, ha comprato un software che usa un algoritmo per scoprire le famiglie dove i figli sono a rischio di abusi», spiega Duncan Mc Cann, ricercatore alla “New Economics Foundation”, centro famoso per aver lanciato l’indice della felicità del pianeta, «I dati di papà e mamma vengono inseriti in questa macchina che cercherà di predire se nei prossimi dieci anni sevizierai o violenterai tuo figlio. Il software arriva dagli Stati Uniti e si tratta di una tendenza veramente pericolosa perché dati come una multa o altri tipi di infrazioni vengono processati dalla macchina che cerca di individuare un certo tipo di comportamento ricorrente».
Insomma un’informazione vecchia di cinque anni e non necessariamente corretta potrebbe essere usata dall’algoritmo per indicare che quella famiglia è violenta, anche se questo potrebbe non corrispondere alla realtà. Secondo un’inchiesta del quotidiano britannico <+CORSIVOA>Guardian<+TONDOA> almeno quattro autorità locali, in Gran Bretagna – oltre ad Hackney anche Thurrock nell’Essex, il quartiere londinese di Newham e la città di Bristol – stanno usando l’intelligenza artificiale per impedire abusi sui minori e nelle macchine sono stati inseriti i dati di 377.000 persone.
Duncan McCann spiega che l’algoritmo arriva dagli Stati Uniti dove già viene usato con effetti preoccupanti. «In America dipendenti pubblici come insegnanti, poliziotti e assistenti sociali hanno il dovere di riferire anche di un pettegolezzo diffuso da un vicino, con il quale la famiglia ha litigato», spiega, «Basta un sospetto perché l’algoritmo definisca quella famiglia pericolosa e la inserisca nell’elenco di quelle a rischio di commettere abusi».
Scatta, così, una strettissima sorveglianza. Una situazione pesante da sostenere. Incidenti normali, come la caduta da una sedia e il conseguente occhio nero del bambino, vengono subito interpretati male da insegnanti e assistenti sociali che pensano che quel piccolo sia stato picchiato.
Il risultato è che le visite degli assistenti sociali diventano ancora più frequenti. Papà e mamma non amano questa invasione della loro privacy e reagiscono protestando perché vogliono proteggere la famiglia dalle intrusioni. Sotto l’occhio invadente e mal disposto dello stato che fruga in ogni angolo della loro vita privata fin dai primi giorni di vita di quel bambino. E se danno qualche segno di insofferenza, di voler difendere almeno la possibilità di essere bravi genitori, vengono subito catalogati come potenziali abusatori, non in grado di accudire quella creatura che neppure è ancora nata.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: