venerdì 15 dicembre 2023
Parla la presidente del Consiglio nazionale delle ricerche: è una rivoluzione che cambia la nostra vita, esserne fuori moltiplica le disuguaglianze fondamentali. Gli algoritmi non decidano per noi
La presidente del Cnr, Maria Chiara Carrozza

La presidente del Cnr, Maria Chiara Carrozza - Ansa

COMMENTA E CONDIVIDI

Maria Chiara Carrozza ha un’agenda fittissima, ma la presidente del Consiglio Nazionale delle Ricerche - studiosa di bioingegneria, già ministra dell’Università e rettrice della Scuola superiore Sant’Anna di Pisa - si ritaglia uno spazio per discutere del Messaggio del Papa. L’intersezione tra intelligenza artificiale (IA) ed etica le sta molto a cuore.

Professoressa Carrozza, il Messaggio del Papa per la Giornata mondiale della pace fa un’eccellente panoramica del tema della IA. Un punto qualificante dalla prospettiva di Francesco pare quello del “senso del limite” rispetto all’“ossessione di controllare tutto”. Come interpreta questo invito?

Il tema dell’intelligenza artificiale apre inevitabilmente il dibattito sui rischi che derivano dal suo uso. Da scienziata, posso dire che da anni la comunità scientifica utilizza questo strumento per raggiungere risultati impensati fino a pochi anni fa, in molteplici settori: dall’ambito medico-sanitario allo studio dell’ambiente fino ad applicazioni nel campo della sicurezza. Alla base del lavoro di chi fa ricerca ci sono certamente dei limiti di natura etica, ma sono del parere che l’intelligenza artificiale sia uno strumento che possa aprire nuove strade nell’innovazione, e che vada esplorata e conosciuta, più che temuta. L’invito al “senso del limite” rivolto dal Santo Padre è un richiamo, lucidissimo, alla nostra umanità più profonda. Il “limite” della mente e della conoscenza umana è ciò cui la scienza, per sua natura, tende. Un misurarsi continuo e progressivo che si basa sul desidero di offrire risposte a problemi insoluti.

Il Papa individua un paradigma tecnocratico in cui le diseguaglianze potrebbero crescere a dismisura. Vede questo pericolo? Come evitarlo?

Oggi siamo al centro di una rivoluzione tecnologica che sta investendo il nostro modo di lavorare, produrre, studiare, vivere. Rimanerne esclusi significa, inevitabilmente, aumentare le disuguaglianze e limitare le opportunità di crescita e di sviluppo proprio di quei Paesi e quelle aree del mondo che ne avrebbero maggiormente bisogno per emergere. L’avanzare, rapidissimo, dell’intelligenza artificiale impone alla comunità scientifica un dovere che è insieme morale e professionale: quello di essere pronti a confrontarsi con gli effetti del progredire di questa tecnologia, attivando ogni possibile risorsa per cogliere le opportunità e riconoscere i rischi connessi. Le soluzioni dipendono da una serie di fattori e di scelte che riguardano istituzioni internazionali, governi, diplomazia. Tuttavia, come recentemente ricordato anche dal presidente della Repubblica Sergio Mattarella alla cerimonia di chiusura del Centenario del Cnr, la scienza può e deve essere uno strumento di pace, facendo da “ponte” tra nazioni e superando barriere politiche e culturali. Condividere conoscenze e risorse, infatti, è già di per sé un modo per mitigare le diseguaglianze, promuovere la pace e la prosperità economica.

Nel testo si dice che il rispetto per la dignità umana impone di rifiutare che l’unicità della persona venga identificata dall’IA con un insieme di dati. L’algoritmo può prendere il sopravvento sulle prerogative umane?

No, se la persona rimane al centro del progresso e se l’attività di chi fa scienza e innovazione sarà orientata a un “umanesimo scientifico”: un modello, cioè, in cui l’evidenza scientifica è il metodo, e il servizio all’umanità sia il fine. Si è reso evidente come la tecnologia possa essere utilizzata per migliorare la qualità della vita delle persone – che si tratti di una persona con disabilità o un lavoratore che svolge un’attività estremamente usurante – ma non si può mai, in alcun contesto e con alcuno strumento lasciare che siano algoritmi preimpostati a prendere il sopravvento.

Il tema dei sistemi d’arma autonomi è cruciale nel contesto del discorso sulla pace. Quali sono i rischi e che cosa fare? Gli scienziati possono avere un ruolo?

Il rapporto tra scienza e applicazioni militari è sempre esistito: pensiamo a quell’agosto del 1945 in cui sulle città di Hiroshima e Nagasaki venne sganciata una bomba dagli effetti devastanti, in qualche modo frutto degli studi sugli atomi. Oggi, nel caso delle armi autonome, o dotate di intelligenza artificiale, siamo nuovamente di fronte a una tecnologia avanzata dalle implicazioni etiche fortemente negative, ma con una differenza rispetto ad allora: la maggiore consapevolezza sulle conseguenze di queste innovazioni e il dilemma etico che le comunità scientifiche si pongono. Tanto che, da più parti, si discute a livello sovranazionale sulla possibilità di una moratoria per questo tipo di armi letali. Nel delicato contesto geopolitico attuale, il compito del mondo scientifico è quello di fare leva sullo spirito di collaborazione e di cooperazione della scienza a livello internazionale. Coniugare in maniera efficace saperi e competenze trasversali, metterli a disposizione della società è una forma di “solidarietà scientifica” che può rivelarsi uno strumento cruciale per affrontare le sfide del presente e costruire un futuro più resiliente e sostenibile.

Francesco loda il progresso scientifico ma analizza le insidie della IA. Alla fine, sottolinea tutte le opportunità positive che comunque si possono aprire. Come sfruttarle al meglio a favore di tutti?

Concordo sul fatto che sia importante trasmettere alla società una visione positiva di come molte tecnologie basate sull’AI possono contribuire a migliorare la qualità della vita, dell’ambiente, della produzione: questo si può fare favorendo un atteggiamento di fiducia nella scienza, di condivisione dei suoi valori e del suo ruolo nella società odierna.

C’è nel messaggio un interessante richiamo alla necessità di educare al pensiero critico. La diffusione dell’IA generativa (ChatGPT) può introdurre forme di omologazione del pensiero? E a vantaggio di chi controlla la tecnologia?

Programmi come ChatGPT hanno aperto un largo dibattito perché per la prima volta siamo di fronte a strumenti che possono automatizzare la nostra attività cognitiva, ovvero ciò che più ci caratterizza come esseri umani. La perdita di un proprio pensiero critico è certamente una delle conseguenze estreme dell’uso di questa tecnologia: in tal senso, occorre fare una riflessione profonda per capire quali, per contro, sono i vantaggi che possono derivare dalla sua diffusione. Sarà quindi necessario pensare a nuovi modelli di supporto, programmi di re-skilling e formazione per ridisegnare i nuovi equilibri che si stanno determinando. In questo contesto, la scienza e la ricerca hanno un ruolo cruciale, stimolando l’innovazione e l’osservazione e offrendo le evidenze scientifiche al servizio dei policy makers. La ricerca italiana è già fortemente coinvolta nel tema dell’intelligenza artificiale. Per citare un esempio, penso al Partenariato esteso FAIR (Future Artificial Intelligence Research), guidato dal Cnr, che rappresenta un progetto collettivo molto ambizioso, profondamente orientato verso il futuro, che vuole contribuire a definire metodologie, tecnologie, modelli di Intelligenza artificiale, senza tralasciare gli aspetti etici e legali. Se guardiamo al dibattito sull’AI Act, iniziato nell’aprile 2021, possiamo dire che ci stiamo muovendo verso un approccio “umano-centrico”, che pone al centro la tutela dei valori e dei diritti fondamentali della persona.




© Riproduzione riservata
COMMENTA E CONDIVIDI