mercoledì 22 maggio 2024
Se accettiamo che siano regolamentati i prodotti alimentari, servono regole anche su strumenti che hanno ripercussioni sul nostro benessere e sulle nostre relazioni
Tutelare gli interessi di tutti: anche l'IA ha bisogno di una governance
COMMENTA E CONDIVIDI

Viviamo vite sempre più digitali, ed i confini tra reale e virtuale vanno assottigliandosi. Popoliamo l’infosfera, declinando la nostra identità a seconda dei contesti in cui ci immergiamo, e la nostra relazionalità è sempre più mediata da dispositivi digitali. Il processo di digitalizzazione e lo sviluppo di nuove tecnologie aprono nuovi confini, prima esclusivamente relegati alla sfera della nostra immaginazione e creatività. E questo diviene particolarmente evidente con l’ultimo prodotto tecnologico arrivato sul mercato: l’Intelligenza Artificiale.

Con l’arrivo di Chat GPT 3 prima e di altri software poi, il mercato e quindi i consumatori si sono ritrovati con la messa a disposizione di uno strumento che sembra interagire razionalmente con i propri interlocutori. Questo ha generato numerose discussioni sulla possibilità che questi strumenti possano diventare senzienti, e allo stesso tempo incidere in modo positivo o negativo (a seconda delle prospettive) su numerose dimensioni tipiche dell’umano, come il lavoro ed i valori. Eppure, come sottolineato dal filosofo Luciano Floridi, questi non sono strumenti intelligenti, ma rappresentano la capacità, per la prima volta nella storia umana, di Agire sine Intelligere, cioè di “azione senza comprensione” del significato di quanto si stia facendo.

Alla luce di queste considerazioni, risulta fondamentale provare a capire chi siamo e come ci definiamo. L’economia mainstream (neoclassica), per lungo tempo, ha fatto del modello dell’Homo Oeconomicus il paradigma dominante rappresentativo degli agenti del mercato: soggetti auto- interessati, egoisti e razionali il cui unico scopo è la massimizzazione della propria soddisfazione e profitto. Una visione arida dell’essere umano che troppo spesso si scontra con l’esperienza di noi stessi e degli altri, con quella relazionalità che definisce il nostro essere animali sociali (come ci ricorda Aristotele). Siamo molto di più dell’Homo Oeconomicus e le ricerche compiute nel campo dell’economia sperimentale e comportamentale lo dimostrano: siamo interessati al nostro benessere, ma tendiamo a considerare anche quello delle persone con cui interagiamo. Effettuiamo scelte individualiste e competitive, ma anche pro-sociali, altruistiche e cooperative.

Molto dipende però dal contesto in cui effettuiamo queste scelte: maggiore la scarsità delle risorse, maggiore la propensione a curare esclusivamente i nostri interessi. In contesti di scarsità, come ci ricorda la professoressa Bryson, aumenta la polarizzazione delle persone (in particolare quella definita “affettiva”) che comporta una mancanza di fiducia per coloro che sono al di fuori delle nostre cerchie (si pensi alle dinamiche, nell’arena politica così come nei social network, dove la discussione diventa tifo da stadio). Questo ha già avuto ripercussioni importanti nei processi democratici (si pensi allo scandalo di Cambridge Analitica durante le prime elezioni di Trump negli Usa), e i rischi potrebbero ulteriormente aumentare qualora la diffusione e l’utilizzo di queste tecnologie sia lasciata esclusivamente alle regole del mercato. Questo rimane lo strumento ottimale di allocazione delle risorse, ma deve saper riconoscere il mutuo interesse e vantaggio delle parti, come ci ricorda il paradigma dell’economia civile. Sebbene vi sia chi ritenga il mercato come un’entità astratta, è bene sottolineare che questo, così come altre istituzioni, nasce e si sviluppa in modi differenti a seconda dei contesti e dei valori che lo animano. Nasce cioè situato all’interno di una realtà che ha regole che disciplinano le interazioni umane e che ne condizionano lo sviluppo ed il funzionamento.

Ed è proprio la gestione dei processi, come evidenziato dalla professoressa Bryson, che consente alle economie e alle istituzioni di prosperare in modo stabile. La questione non è quindi se regolare, ma regolare in modo che tutti gli interessi delle parti in causa siano rappresentati e tutelati. E questo vale nel caso di qualsiasi prodotto, come per l’Intelligenza Artificiale. Se accettiamo che siano regolamentati la vendita e le caratteristiche di prodotti alimentari che incidono sulla nostra salute, perché non accettare la regolamentazione di strumenti che hanno profonde ripercussioni sul nostro benessere e sulle nostre relazioni?

Nel caso del mondo digitale, l’evoluzione di Internet prima e la diffusione dell’economia delle piattaforme oggi (Amazon, Google, Facebook, ecc.) è stata lasciata a sé, generando processi di accentramento e monopolizzazione che vanno a detrimento di una ridistribuzione del valore creato. Hanno generato processi di concentrazione della ricchezza che di fatto hanno esacerbato ulteriormente quella disuguaglianza che è tornata a crescere nei Paesi occidentali, con ripercussioni sulla polarizzazione dei soggetti (es. logica local/anti-elitista vs. global) e capacità di compromesso per la ricerca di soluzioni che possano beneficiare tutti in un’ottica di giustizia. Ed è proprio quest’ultimo punto a ricordarci un aspetto fondamentale del nostro vivere: la giustizia umana si fonda sulla nostra responsabi-lità, nei confronti di noi stessi e degli altri. Ciò significa riconoscere l’apporto fondamentale di ognuno di noi alla costruzione del Bene Comune, perché come ci ricorda Antonio Genovesi, padre dell’Economia civile, «è legge dell'universo che non si può far la nostra felicità senza far quella degli altri».

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: