Roboetica (e no), le leggi che mancano. Il gran confine che bisogna riconoscere
sabato 2 marzo 2019

Gentile direttore,
ho letto del convegno che dal 25 al 27 febbraio si è tenuto in Vaticano per iniziativa dalla Pontificia Accademia per la Vita e avente come tema: "Roboetica. Persone, macchine e salute". Tema ormai, come scritto da "Avvenire", non «fantascientifico», ma di sempre più stringente attualità. Vengono spontanee alla memoria le tre leggi della robotica, poste alla base del relativo manuale (56a Ed. – 2058 d.C.) a premessa del romanzo di Isaac Asimov (Io, Robot ed. 1950). 1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge. 3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima e con la seconda legge. Semplicissime: varrebbero benissimo per qualsiasi essere umano. Il guaio è che proprio noi, progettisti, togliamo troppo spesso la parolina "non" dalla prima legge, con quel che ne consegue. Una seria e divertente lettura del romanzo potrebbe aiutare a rimettere le cose a posto. Se fosse resa obbligatoria per gli addetti ai lavori sarebbe ancor meglio (hanno tempo fino al 2058...). La dottoressa Susan Calvin (nel romanzo di Asimov assunta nel 2008 dalla U.S. Robots quale specialista di psicologia dei robot...) ne sarebbe felice sia pure senza darlo a vedere. E, certamente, non solo lei. Cordiali saluti.

Matteo Parodi, Sori (Ge)

Quante volte, in questi anni, mi sono detto anch'io con amarezza e rimpianto che stiamo entrando nell’«era robotica», quella delle intelligenze artificiali, che Isaac Asimov narrò nel suo serissimo gioco letterario, purtroppo senza portare in bisaccia l’essenziale. Cioè, gentile dottor Parodi, senza almeno quelle "Tre leggi della robotica" che lei rammenta e cita per esteso nella sua lettera e che il grande scrittore costruì in dialogo con l’amico e collega John Campbell e pose a presidio della vita umana. Già, stiamo arrivando all'appuntamento da tempo vaticinato poveri non di baldanza e di capacità tecnica, ma di consapevolezza e di moralità e, dunque, in condizioni di propiziare e subire – anche, ma non solo, tecnologicamente – nuove e inedite prepotenze, ritornanti sopraffazioni, eterni e brutali sfruttamenti.
Difficile stupirsene, del resto. Siamo nel tempo delle regole fragili o inesistenti in ogni campo (a cominciare da quello occupato dai poteri economico-finanziari e tranne che a proposito dell’impegno umanitario che mai come in questo momento gli Stati pretendono di commissariare e limitare). Ci lasciamo riempire la testa di ammirate e addirittura reverenti odi all'efficienza degli algoritmi promossi a "geni della lampada" del potere e della ricchezza. E sembriamo in troppi ancora in preda alle ubriacature del "vietato vietare" e all’eccitazione individualistica delle reclamate ratifiche (in Tribunale o altrove) dei desideri personali come diritti fondamentali anche quando in essi è evidente la carica egoistica... Già. Non c’è da stupirsene, ma neppure ci si può rassegnare. Ed è giusto, anche sul filo dell’ironia, come lei fa con eleganza, porre con forza il problema e lavorare – come sta facendo la pontifica Accademia per la Vita, oggi guidata dall'arcivescovo Vincenzo Paglia – per un vasto soprassalto di intelligenza e di coscienza e per sensate soluzioni.
Potrei chiuderla qui. Ma tralascerei almeno un altro punto cruciale. Anch'io, infatti, dico e scrivo da tempo che le leggi sono utili e necessarie, ma non bastano. Che c’è un diritto, riconoscibile in coscienza, che viene prima di qualunque norma positiva e un bene oggettivo e altrettanto riconoscibile che rompe la cinta degli egoismi e costruisce un futuro più umano che va ragionevolmente e tenacemente realizzato e difeso. A suo modo conferma tutto questo anche la vicenda delle "Tre leggi della robotica" che lei e io vorremmo fissate come minimo presidio di buon senso a uno sviluppo tecnico-scientifico raffinato eppure selvatico.
Lo stesso Asimov dimostrò nei suoi romanzi che quelle Tre leggi riuscivano a essere tanto solide quanto insufficienti, e dunque si spinse fino a concepire – definitivamente nel suo "I Robot e l’Impero" (1985) – una "Legge zero" di questo tenore: «Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno». In quel libro c’è in ballo la distruzione della Terra e l’idea di un «bene comune» più grande (idea che anche oggi – ahinoi – più d’uno si affanna a deridere e a picconare). Il messaggio, infine, è limpido: l’umanità vale più di una sola vita umana, e può valere la pena di concepire e realizzare azioni che conducano al sacrificio di uno, o di alcuni, a vantaggio dell’«umanità». Giusto. Noi cristiani lo sappiamo bene, ma ogni persona è in grado di capirlo.
Sia lei sia io sappiamo, però, che persino in nome dell’«umanità» si possono compiere grandi misfatti se il confine tra male e bene (che quando è comune ha lineamenti più netti) non è conosciuto, riconosciuto e rispettato. È questo, in realtà, l’unico limite che dovremmo considerare insuperabile e rendere nella consapevolezza di tutti chiaro e amato, mentre troppo spesso - come proprio in questi anni - ci si appassiona all'arcigna difesa di tutt'altri confini, magari importanti, ma non altrettanto decisivi e non sempre umanamente giusti... Grazie della sua bella provocazione, gentile amico. Un cordiale augurio di nuove buone letture, di ottime riflessioni, di serene e forti battaglie comuni.

© Riproduzione riservata
COMMENTA E CONDIVIDI