giovedì 10 novembre 2022
L'ex presidente del Consiglio europeo della ricerca invita a fidarsi ma con giudizio dell’intelligenza artificiale. Sabato ne parla a Torino: «Non fatene un idolo»
Helga Nowotny

Helga Nowotny - Luiss University Press

COMMENTA E CONDIVIDI

Con intelligenza artificiale e big data, i modelli e gli algoritmi che aiutano gli umani a prevedere le conseguenze delle loro azioni possono assumere un ruolo ingombrante quando la fiducia riposta alimenta profezie che si autoavverano. In occasione di Biennale Tecnologia a parlarne sarà Helga Nowotny (sabato prossimo, alle 11, Aula Magna “Giovanni Agnelli”, Politecnico di Torino), già presidente del Consiglio europeo della ricerca e professoressa di studi scientifici e tecnologici a Zurigo. Una conquista della modernità è in effetti quella di aver “aperto” al futuro, ma cosa succede se iniziamo a fidarci ciecamente delle previsioni degli algoritmi predittivi, a cui affidiamo sempre più responsabilità? Ne abbiamo parlato con Nowotny a partire dal suo libro Le macchine di Dio. Gli algoritmi predittivi e l’illusione del controllo (Luiss University Press, pagine 206, euro 19,00).

La prospettiva delle profezie che si autoavverano può limitare la nostra capacità di vedere le possibilità alternative che sono fonte di innovazione?

Se ci fidiamo ciecamente dell’IA, seguiamo tutto ciò che ci propone. Diventiamo ostaggio di profezie che si autoavverano e scartiamo possibili alternative, il che limita la nostra capacità di agire. Tendiamo a trascurare il fatto che la maggior parte dei sistemi di IA sono di proprietà di aziende private che vogliono farci vedere e fare determinate cose nel loro interesse. L’IA dovrebbe invece essere un bene pubblico e deve essere regolamentata, per quanto difficile sia.

In che modo il futuro sarà dominato dagli algoritmi predittivi e cosa significherà per noi?

Non dimentichiamo che gli algoritmi predittivi possono avere molti vantaggi, per esempio prevedere fenomeni naturali come l’arrivo di un uragano o seguire i flussi di traffico in tempo reale e reindirizzarli. Ma dobbiamo essere cauti quando le decisioni basate sugli algoritmi sostituiscono il giudizio umano invece di integrarlo.

Il suo libro invoca un nuovo umanesimo digitale che sarà nostro compito saper interiorizzare.

La crescente interazione tra esseri umani e macchine digitali equivale a una loro coevoluzione che ci costringe a riflettere sull’essere umano e su come progettare un’IA di conseguenza. Una delle ultime conquiste dell’IA sono i Large Language Models (modelli linguistici di grandi dimensioni) che possono scrivere testi o dipingere in un certo stile sulla base di un’enorme quantità di dati, “sollecitati” da un umano. Il risultato è sbalorditivo, un’imitazione altamente efficiente con variazioni di ciò che fanno gli esseri umani. In quali situazioni vogliamo affidarci a un’IA che è efficiente nell’imitazione ma non capisce e non sa quando chiedere “perché” per cercare di capire?

C'è chi è entusiasta dell'intelligenza artificiale e chi è terrorizzato. Nel suo libro lei mette al centro la saggezza.

Il desiderio di conoscere il futuro è profondamente radicato nell’uomo, così come il desiderio che il futuro sia migliore. La divisione tra tecnoutopie e distopie polarizza. La saggezza si distingue dalle promesse di un progresso lineare con un futuro sempre migliore. Ci dice che le cose possono essere diverse e ci invita a vedere il mondo sotto una luce diversa, con soluzioni nuove.

Nel suo libro cita Sapiens di Yuval Harari, che parla di una paura arcaica di un’entità quasi divina che ha una conoscenza completa di noi.

Yuval Harari parla del suo personale timore che l’IA lo conosca meglio di lui stesso e lo paragona a una divinità onnisciente. Una posizione del genere non fa che rafforzare l’attribuzione di un’autorità all’IA, invece di essere uno specchio per conoscerci meglio ed evitare che diventi un sistema totalitario di sorveglianza e controllo.

Nel libro lei afferma che non esiste una IA saggia. Al contrario, l’intelligenza è incorporata in ogni algoritmo e in ogni sistema o dispositivo digitale. Dove ci porterà questa ossessione per la casa smart, il lavoro smart, la città smart?

La definizione di smartness è un modo per evidenziare ciò che la digitalizzazione può realizzare, per esempio risparmiare energia installando sensori e raccogliendo dati sulle nostre abitudini o progettando una città “intelligente” che combini in modo efficiente le sue diverse funzioni. Ma se dotiamo tutto il nostro ambiente, le nostre case e il nostro corpo di dispositivi “intelligenti”, ci arrendiamo all'efficienza, che spesso equivale al risparmio economico, come unico valore.

Negli algoritmi lei dice che è difficile gestire l’ambiguità, così come semitoni e allusioni. È rimasto questo come ultimo paletto con gli esseri umani?

Non è l’ultimo, ma la comunicazione e le relazioni umane sarebbero molto impoverite senza ambiguità. L’intelligenza artificiale non è nemmeno brava a fare ironia. Si tratta di tecniche culturali ben affinate, senza le quali vivremmo in un deserto culturale.

Come risolvere il paradosso della fiducia nell’intelligenza artificiale che ci fa agire in modi che prevede? Potremmo risolvere accettando l’incertezza?

Gli algoritmi predittivi operano con i dati del passato. Siamo creature abitudinarie e il comportamento passato è spesso una guida per il futuro. Non dobbiamo mai dimenticare che gli algoritmi possono fornire solo probabilità. Non abbiamo dati dal futuro. Chi avrebbe immaginato la situazione odierna: post-pandemia, guerra in Ucraina, crisi energetica, alta inflazione e gravi tensioni geopolitiche? L’incertezza fa parte della vita e la paura è la reazione peggiore perché ci impedisce di agire. Il futuro è incerto, ma rimane aperto.

© Riproduzione riservata
COMMENTA E CONDIVIDI