giovedì 22 aprile 2021
La Commissione fissa le regole per proteggere i cittadini. Si va da insidie "inaccettabili" a rischi "minimi". Attenzione sul riconoscimento facciale e alle altre identificazione biometriche
Il robot Osa alla fiera di Hannover del 2013

Il robot Osa alla fiera di Hannover del 2013 - Archivio Ansa

COMMENTA E CONDIVIDI

La proposta della Commissione sull’intelligenza artificiale deve essere considerata un punto di partenza. Ora il Parlamento europeo e gli Stati membri dovranno adottare questa proposta all’interno della procedura legislativa ordinaria. Una volta adottato, il nuovo Regolamento sarà direttamente applicabile in tutti i Paesi dell’Ue. In parallelo, la Commissione continuerà a collaborare con gli Stati per implementare le nuove regole.

Telecamere in strada per la sorveglianza di massa, sistemi informatici che «selezionano» il personale magari su basi razziali, «punti» per classificare i cittadini in base alla fedeltà al regime. Tutto questo non deve avere spazio nell’Ue. È la filosofia che è dietro alla proposta di una normativa sull’intelligenza artificiale presentata ieri dalla Commissione Europea. Perché, ha detto la presidente Ursula von der Leyen, se «l’intelligenza artificiale è una fantastica opportunità per l’Europa », tuttavia «i cittadini meritano tecnologie di cui possono fidarsi».

«Indicando gli standard – ha commentato la vice presidente Margrethe Vestager – possiamo spianare la strada a una tecnologia etica a livello mondiale e far sì che l’Ue rimanga competitiva». Si tratta, chiosa il commissario al Mercato interno Thierry Breton, di «far sì che l’intelligenza artificiale rispetti i nostri valori e regole, per poi trarre profitto del suo potenziale nell’uso industriale». L’obiettivo, spiega la Commissione, è «trasformare l’Europa nel polo mondiale per un’intelligenza artificiale affidabile»: l’Ue, dice Breton, sarà «il primo continente a dare le linee guida».

La Commissione individua vari livelli di rischi. Ci sono, anzitutto, quelli «inaccettabili», che saranno vietati: quelli «considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone». Si parla di «sistemi o applicazioni di Ia che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (come giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un 'punteggio sociale'».

Si passa poi al «rischio alto». Si parla di infrastrutture critiche, (come i trasporti, con rischi per la vita e la salute dei cittadini), istruzione e formazione (poiché può determinare l’accesso all’istruzione e il percorso professionale), componenti di sicurezza dei prodotti (ad esempio la chirurgia assistita da robot), occupazione e gestione dei lavoratori (ad esempio la valutazione dei curricula), servizi essenziali pubblici e privati (come sistemi di valutazione che possono negare il credito). Ad alto rischio anche le applicazioni per fini giudiziari, immigrazione e controllo delle frontiere.

Per questa categoria di rischio si applica una serie di obblighi rigorosi per poter immettere sul mercato i relativi prodotti, come un’adeguata valutazione del rischio, una documentazione dettagliata, e soprattutto una vigilanza umana, pena multe fino al 6% del fatturato. Su un punto la Commissione è chiara: «Tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato».

Raccontano di un duro dibattito nella Commissione, tra quanti temevano la sorveglianza di massa e chi invece ne vedeva i benefici per la lotta al crimine. Alla fine sono passate varie eccezioni, «ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave», e sempre con un’autorizzazione dell’autorità giudiziaria. «Rimangono significanti lacune – lamenta Amnesty International – nel divieto dell’utilizzo di riconoscimento facciali e varie altre forme di sorveglianza biometrica ». Regole più leggere, per le ultime due categorie, il rischio «limitato» e «minimo».

Protagonisti nel garantire il rispetto delle norme saranno le autorità nazionali di vigilanza del mercato. In più, Bruxelles propone la creazione di un Comitato europeo per l’Ia in cui siederanno rappresentanti delle autorità nazionali e Ue, che dovrà emettere raccomandazioni e opinioni. La normativa dovrà essere approvata dagli Stati membri e dal Parlamento Europeo, la sua entrata in vigore non sarà prima del 2023.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: