venerdì 11 giugno 2021
Si chiama Humane Technology Lab il neonato Laboratorio dell’Università milanese per ragionare – con psicologi, sociologi, giuristi ed economisti – sulle nuove tecnologie mettendo al centro la persona
I chiostri dell'Università Cattolica di Milano

I chiostri dell'Università Cattolica di Milano - Ufficio stampa Università Cattolica

COMMENTA E CONDIVIDI

Tecnologie avanzatissime ci accompagnano quotidianamente. Il navigatore che ci guida ovunque. O l’assistente personale, quella scatoletta che a casa ci ascolta da mane a sera per dirci con voce gentile come sarà il tempo o il film da vedere in tivù. Queste meraviglie – e molte altre – sfornate dal mercato per il nostro diletto possono nascondere insidie: non sempre le intelligenze artificiali sono progettate – e poi usate – da intelligenze umane consapevoli. Forse allora per uno sviluppo – e un uso sicuro – serve una saggezza digitale. Lasciare il monopolio della ricerca a ingegneri e informatici, insomma, può essere rischioso. Meglio accompagnarlo dalla riflessione di sociologi, psicologi, filosofi, giuristi, economisti. È la sfida ambiziosa del nuovo Humane Technology Lab dell’Università Cattolica del Sacro Cuore. Un "pensatoio" per mettere a sistema, facendole dialogare in modo interdisciplinare, le competenze presenti nell’Ateneo.

«Esiste una saggezza digitale?» è proprio il titolo dell’incontro online che ieri ha presentato il neonato laboratorio. «Usare le tecnologie oggi richiede saggezza, nel senso psicologico di "equilibrio"», dice subito il direttore del Lab, Giuseppe Riva. «Big tech ci dice semplicemente "è un’opportunità, se vuoi sceglila". Ma se non c’è dialogo tra competenze e discipline rischiamo di non vedere i possibili problemi». Nicola Palmarini, direttore del UK’s National Innovation Centre for Ageing fa un esempio: «Negli anni 60 il catino di "Moplen" era un desiderio di tutti. Oggi che ci ritroviamo la plastica anche nei campi capiamo che non era saggio. La stessa ricerca può salvare o uccidere».

Ma «se la tecnologia può dare problemi - dice il direttore Riva - non è detto che dobbiamo demonizzarla e buttare via il bambino con l’acqua sporca». E magari anche il catino. «Se c’è un’opacità - spiega Riva - dobbiamo trovare la luce per guardarci attraverso e non perdere l’opportunità. Questo laboratorio nasce proprio per questo». Ne è convinto anche Ciro De Florio, docente di Logica e Filosofia della scienza alla Cattolica: «Tecnologia e filosofia devono piacersi a vicenda, ne va del nostro futuro. Non aspettiamo le decisioni dei tecnici, giocando in difesa. Giochiamo in attacco. Se manca la trasparenza, manca il controllo sui processi decisionali».

E qui entra il discorso sulle regole. In qualche modo già presenti, come per l’uso dei dati - ossigeno vitale per gli algoritmi - protetti dalle norme sulla privacy. Almeno in teoria. «Il tema etico è presente nella riflessione della Commissione europea», assicura Gabriele Mazzini della Dg Connect, la direzione generale della Commissione dell’Ue che si occupa di tecnologie, digitale, sicurezza internet. «Le macchine non possono essere sagge, è l’uso delle tecnologie che deve esserlo. La Commissione ha proposto ad aprile un progetto di regolamento per prevenire problemi di sicurezza, salute, lavoro legati all’intelligenza artificiale. È la prima al mondo». La Commissione per Mazzini «ha molto interesse che l’Europa non resti indietro, con un approccio né cinese, né americano».

Ma le grandi aziende ci rassicurano giurando che le intelligenze artificiali stanno diventando anche sagge. Palmarini ha qualche dubbio: «Non è detto che immettere regole nelle macchine produca decisioni etiche». Il progetto del Mit chiamato Moral machine, ad esempio, vuole dare alle automobili senza guidatore una coscienza per prendere scelte etiche: «La macchina si ferma al rosso – esemplifica Palmarini – ma se qualcuno passa mentre è verde? Passerà lo stesso?». E se non può evitare l’impatto chi sacrificherà? «Il cane piuttosto che il padrone. E tra l’anziano e la mamma con la carrozzina?». L’"etica digitale" poi non prevede intervallo tra decisione e azione, sottolinea De Florio, citando «le armi automatizzate». Quei discussi killer robots che tanto piacciono a molti generali. Al nuovo pensatoio della Cattolica il lavoro non mancherà di sicuro.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: