sabato 22 aprile 2023
La lista degli elementi in agenda è molto lunga: lavoro, libertà, diritti, creatività, indipendenza. E spicca il problema della scelta consapevole fra pensiero, idea e sistema di valori etici
L’intelligenza artificiale ha bisogno di regole. Come ogni tecnologia

unsplash

COMMENTA E CONDIVIDI

«Il re è nudo!». Scortato da due gendarmi in alta uniforme è stato condotto in una prigione dalla quale non potrà più parlare con i suoi sudditi, raccontando storie inverosimili. Il processo è già iniziato e gli ammiratori si sono rapidamente trasformati in pubblici ministeri, ansiosi di provare la sua colpevolezza. Saranno tempi lunghi ma, nel frattempo, si sta cercando un nuovo regnante. Stiamo parlando di chatGpt, un modello di “chatbot” basato su intelligenza artificiale e apprendimento automatico, messo in stato di accusa dal Garante italiano per la privacy e, molto probabilmente, anche dagli omologhi garanti di altre nazioni e continenti. Viene contestato a OpenAi (l’azienda californiana che l’ha realizzato) l’uso indiscriminato di dati personali durante la fase di addestramento di chatGpt, la loro acquisizione arbitraria durante l’utilizzo in rete, la diffusione di contenuti falsi e discriminatori, l’accesso incontrollato da parte di minori. In generale, se ne contesta la pericolosità sociale.

La tecnologia è figlia della scienza e, da sempre, è considerata un potenziale pericolo per l’umanità. Se pochi sono disposti, e legittimamente autorizzati, a porre un limite alle scoperte scientifiche, il controllo della tecnologia è invece storicamente praticato e accettato. Ad esempio, gli studi sulla struttura atomica della materia hanno consentito la costruzione delle armi nucleari, la cui proliferazione è stata bloccata nel secolo scorso. Al tempo stesso, l’energia nucleare continua a essere usata per fini pacifici, ma con una grande attenzione ai potenziali danni all’ambiente e all’uomo, in caso di incidenti. Anche l’intelligenza artificiale è la figlia tecnologica della scienza: dell’informatica, della matematica, della statistica e dell’elettronica. I suoi usi possono essere fattori abilitanti di crescita economica e sociale, ma anche elementi di perturbazione e destabilizzazione. In questa prospettiva è in corso un ampio dibattito sui temi etici legati alla sua natura, arrivando a ipotizzare la nascita di entità dotate di coscienza e autonomia. Il mito del sovraumano viene spesso evocato, anche in assenza di elementi oggettivi che lo giustifichino.

Si tratta adesso di allargare questo dibattito all’uso etico dell’intelligenza artificiale, considerandola cioè uno strumento che ha un impatto sociale significativo. L’Unione Europea ha affrontato il tema della pericolosità dell’intelligenza artificiale, definendo il concetto di alto rischio e il divieto di un suo utilizzo incontrollato. Nel caso di chatGpt gli elementi di rischio si sono manifestati a posteriori, quando milioni di utenti hanno iniziato a usarlo, mettendone in luce comportamenti inattesi e sorprendenti. L’esposizione al pubblico ne ha evidenziato la pericolosità e, soprattutto, ha aperto la strada ad applicazioni il cui profilo di legittimità appare dubbio. Ad esempio, hanno reagito negativamente coloro che operano in contesti direttamente minacciati da chatGpt: giornalisti, scrittori, musicisti e, in generale, operatori tutelati dalla proprietà intellettuale. L’addestramento basato sulle loro opere consente a chatGpt la generazione di contenuti simili, senza alcun riconoscimento della reale paternità e del relativo valore economico e artistico.

Analogamente, il mondo dell’istruzione scolastica ha puntato l’attenzione sul suo uso diseducativo, che consente di superare facilmente e senza alcun impegno cognitivo le prove didattiche previste dai percorsi formativi di ogni ordine e grado. In un quadro così negativo è possibile individuare degli elementi di riflessione che ci aiutino ad avere una ragionevole visione del prossimo futuro? Limitando l’analisi al contesto nazionale si osserva che la ricerca sull’intelligenza artificiale è molto attiva. Due anni fa è stato attivato il Dottorato nazionale di intelligenza artificiale, che vede la partecipazione di 61 università ed enti di ricerca. Oltre a questa iniziativa, numerose università hanno attivato nuovo corsi di laurea triennale e magistrale, centrati sull’intelligenza artificiale e sulla sua applicazione in vari contesti scientifici, tra cui quello biologico e medico. Nell’ambito delle azioni previste dal Pnrr è partito il partenariato esteso denominato Future artificial intelligence research (Fair), un progetto nazionale guidato dal Cnr al quale partecipa una rete di 25 partner pubblici e privati, tra cui università, enti di ricerca e aziende. Anche in questo caso, la vitalità del settore industriale è molto forte, segno che è stata colta la natura innovativa dell’intelligenza artificiale.

In aggiunta alle risorse messe in campo dal Pnrr, le aziende sono sostenute da numerosi piani nazionali ed europei di innovazione di servizi e di prodotti. A differenza di quanto successo con chatGpt, l’obiettivo è favorire l’uso controllato e consapevole dell’intelligenza artificiale, i cui rischi potenziali possono essere attentamente definiti e mitigati. Un ulteriore elemento da prendere in considerazione è la distinzione tra il miglioramento della produzione, ad esempio usando l’intelligenza artificiale per ottimizzare i processi industriali, e la mera sostituzione del lavoro umano, soprattutto quello intellettuale, con entità artificiali. Come proposto dal premio Nobel per l’economia Robert Schiller, questa sostituzione dovrebbe essere sottoposta a una qualche forma di tassazione. La lista degli elementi di riflessione è molto lunga e oggetto di un’attenzione mediatica senza precedenti. Tra questi spicca il tema della coscienza, intesa sia come consapevolezza della natura fisica umana che come sistema di valori etici. Autonomia, indipendenza, creatività chiamano in campo antiche e ancora aperte questioni, con un nuovo attore artificiale che inizia a emettere i primi vagiti e a richiamare la nostra attenzione.

Il progetto "Fair": ricerca in rete per il futuro

Future Artificial Intelligence Research (Fair) è un partenariato esteso che fa parte delle azioni previste dal Pnrr e attivate dal ministero dell’Università e della Ricerca. Fair è un progetto nazionale al quale partecipano 350 ricercatori provenienti da una rete di 25 partner pubblici e privati, tra cui università, enti di ricerca e aziende. Il progetto Fair è stato presentato dal Cnr in collaborazione con il Laboratorio nazionale Aiis (Artificial intelligence and intelligent systems) del Cini (Consorzio interuniversitario nazionale per l’informatica); ha la durata di tre anni ed è stato finanziato per 114,5 milioni di euro. Il progetto Fair ha l’ambizioso obiettivo di «contribuire ad affrontare le domande di ricerca, le metodologie, i modelli, le tecnologie e anche le regole etiche e legali per costruire sistemi di Intelligenza Artificiale capaci di interagire e collaborare con gli umani, di percepire ed agire all’interno di contesti in continua evoluzione, di essere coscienti dei propri limiti e capaci di adattarsi a nuove situazioni, di essere consapevoli dei perimetri di sicurezza e fiducia, e di essere attenti all’impatto ambientale e sociale che la loro realizzazione ed esecuzione può comportare». La gestione del progetto, strutturata secondo la logica “ hub & spoke”, è affidata alla Fondazione Fair (future- ai-research.it/) che agisce da hub. Ognuno dei nove soggetti esecutori ( spoke) è dedicato a un particolare tema di ricerca: Human Centered AI (Università di Pisa), Int egrative AI (Fondazione Bruno Kessler), Resilient AI (Università di Napoli Federico II), Adaptive AI (Politecnico di Milano), High Quality AI (Università di Roma Sapienza), Symbiotic AI (Università di Bari), Edge-Exascale AI (Politecnico di Torino), Pervasive AI (Università di Bologna), Green-Aware AI (Università della Calabria), Bio-socio-cognitive AI (Istituto italiano di tecnologia). Uno degli aspetti rilevanti del progetto Fair è la sua diffusione sul territorio nazionale, con il coinvolgimento di quattro enti di ricerca (Cnr, Fondazione Bruno Kessler, Infn, e Iit), 14 università (Politecnico di Milano, Politecnico di Torino, Sapienza, Scuola normale superiore, Sissa, Università Bocconi, Università Campus biomedico di Roma, Università della Calabria, Università di Bari, Università di Bologna, Università di Catania, Università di Napoli “Federico II”, Università di Pisa, Università di Trento) e sette aziende (Bracco, Deloitte, Expert. ai, Intesa Sanpaolo, Leonardo, Lutech, StMicroelectronics).

Eugenio Raimondi



© Riproduzione riservata
COMMENTA E CONDIVIDI