mercoledì 14 giugno 2023
Il Parlamento Ue ha approvato l’“IA Act”, primo regolamento al mondo sul tema: ora dovrà essere ratificato da Commissione e Stat
L'aula del Parlamento europeo a Strasburgo

L'aula del Parlamento europeo a Strasburgo - Ansa/Christophe Karaba

COMMENTA E CONDIVIDI

Oggi il Parlamento europeo ha adottato la sua posizione negoziale sulla legge sull'intelligenza artificiale (“IA Act”) con 499 voti a favore, 28 contrari e 93 astensioni ed è pronto ad avviare i negoziati con gli Stati Ue sul testo definitivo. Le norme mirano a garantire che l'IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell'Ue, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale. Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l'intelligenza artificiale può generare.

Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali). I deputati hanno ampliato l'elenco per includere divieti sugli usi intrusivi e discriminatori dell'IA, come l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

I deputati vogliono inoltre che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di Ia che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. I fornitori di modelli di base (uno sviluppo nuovo e in rapida evoluzione nel campo dell'IA) dovrebbero valutare e mitigare i possibili rischi (per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo stato di diritto) e registrare i propri modelli nella banca dati dell'Ue prima di immetterli sul mercato. I sistemi di intelligenza artificiale generativa basati su questi modelli, come ChatGpt, dovrebbero rispettare requisiti di trasparenza (devono rivelare che il contenuto è stato generato dall'intelligenza artificiale, aiutando anche a distinguere le cosiddette immagini deep-fake da quelle reali) e garantire salvaguardie contro la generazione di contenuti illegali. Dovrebbero essere rese pubbliche anche sintesi dettagliate dei dati protetti da copyright che sono stati utilizzati. Per promuovere l'innovazione dell'IA e sostenere le piccole e medie imprese, i deputati hanno aggiunto esenzioni per le attività di ricerca e i componenti dell'IA forniti con licenze open source, a codice sorgente aperto. La nuova legge promuove i cosiddetti sandbox normativi, o ambienti di vita reale, istituiti dalle autorità pubbliche per testare l'intelligenza artificiale prima che venga implementata.

Il Parlamento ha in questo modo dato seguito al testo concordato in sede di commissione lo scorso 11 maggio ed è incentrato sulla scala di rischio per regolamentare le applicazioni di intelligenza artificiale, su quattro livelli: minimo (videogiochi abilitati per l'IA e filtri anti-spam), limitato (chatbot), alto (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell'affidabilità delle prove in tribunale, chirurgia assistita da robot) e inaccettabile («tutto ciò che rappresenta una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone», come l’assegnazione di un “punteggio sociale” da parte dei governi). Per il primo livello non è previsto alcun intervento, mentre l'ultimo livello sarà vietato integralmente e i due intermedi richiederanno livelli crescenti di trasparenza e sicurezza.

Ora inizieranno i negoziati interistituzionali con il Consiglio per dare forma definitiva alla legge.»L’Eurocamera ha trovato un’impostazione equilibrata e centrata sulle persone per una legalizzazione che stabilirà uno standard globale per molti anni. Possiamo essere fieri del ruolo leader dell'Ue in questo settore», ha detto la presidente dell’Eurocamera, Roberta Metsola. «Abbiamo fatto la storia», ha sottolineato, mentre per la vicepresidente della Commissione europea Margrethe Vestager il voto al Parlamento europeo sul regolamento per l’intelligenza artificiale «è molto importante: si tratta di momenti storici, perché siamo i primi al mondo a negoziare» un accordo per fissare dei paletti all'IA. «Non vedo l’ora che i triloghi [i negoziati tra le istituzioni Ue, ndr] comincino», ha evidenziato Vestager, indicando la fine del 2023 come la data verso cui è rivolto l'impegno di tutti per raggiungere l'intesa finale.

© Riproduzione riservata
COMMENTA E CONDIVIDI