Le armi autonome, i ricercatori e noi tutti
domenica 10 marzo 2019

La fantascienza cinematografica è ricca di robot combattenti. Ma raramente un film permette di cogliere i rischi e i drammi reali che una guerra automatizzata porta con sé. Un’eccezione viene dal recente Il diritto di uccidere, un intenso thriller diretto da Gavin Hood in cui si deve decidere se neutralizzare con un drone alcuni terroristi kamikaze intenti a preparare un attentato, mettendo però a rischio la vita di una bambina che vende pane su un banchetto nelle vicinanze.

Alla decisione sono chiamati i vertici politici e militari di Usa e Gran Bretagna, ma chi comanda il velivolo senza pilota è una coppia di soldati seduti in un locale angusto a migliaia di chilometri di distanza. I due vedono la scena attraverso le telecamere, osservano i movimenti della piccola civile inconsapevole e sono infine colti da una crisi di coscienza che paralizza le loro mani sul grilletto elettronico.

Dopo essersi immersi nella disturbante storia sullo schermo, è più facile immaginare una vicenda reale in cui al posto degli esseri umani a scegliere sia soltanto una macchina, programmata per massimizzare il risultato. È quello che accadrebbe se le armi autonome fossero schierate sul campo di battaglia con licenza di uccidere. Un principio utilitaristico, ragionevole nell’ambito della robotica, farebbe dire allo strumento elettronico che eliminare tre persone dotate di cinture esplosive dirette verso una zona affollata è un obiettivo da perseguire, anche se nell’azione può morire una bambina.

Decine se non centinaia di vite salvate, tre terroristi colpiti e solo una vittima incolpevole. Ma il calcolo ammetterebbe anche l’uccisione accidentale di due bambini, di tre bambini, di un’intera famiglia... Fino a che il risultato numerico resti presumibilmente positivo. Un robot soldato non ha pietà, non coglie il terrore e la resa implicita negli occhi del nemico, non viene toccato da appelli all’umanità condivisa.

Per definizione, è una macchina per uccidere e distruggere. Dovrebbe quindi suscitare la massima attenzione condivisa il fatto che tanti ricercatori italiani impegnati nel campo della robotica e dell’intelligenza artificiale abbiano firmato un appello al nostro governo perché promuova il bando delle armi autonome in tutte le sedi internazionali. Se sono allarmati coloro che meglio conoscono un settore in grande evoluzione e ancora poco conosciuto dall’opinione pubblica, se non nella forma di generiche rivoluzioni tecnologiche alle porte, allora è opportuno dare loro ascolto.

Perché la ricerca militare va veloce e procede nel comprensibile segreto, in una corsa per la supremazia che facilmente diventa escalation concreta sui campi di battaglia, come la storia ci insegna. Non è solo la diffusione di combattenti infaticabili e spietati a doverci spaventare. Sarà il loro "cervello" il pericolo più insidioso. Quando le macchine impareranno da sole (e cominciano a farlo), adatteranno il loro comportamento alle mutate condizioni ambientali e impiegheranno tutti i mezzi disponibili per raggiungere l’obiettivo cui sono vincolate. Se l’obiettivo è limitato, i rischi sono ridotti o nulli (sono queste le applicazioni civili).

Ma se l’obiettivo è "vincere la guerra" o "annientare il nemico" (l’applicazione bellica), i sistemi d’arma autonomi e intelligenti non si fermeranno davanti a nulla. Una volta innescato tale processo, come sottolinea il documento degli scienziati che sarà presentato martedì a Roma, norme come la Convenzione di Ginevra sarebbero difficilmente rispettate né i singoli crimini di guerra avrebbero più una paternità accertabile, con i comandi militari totalmente deresponsabilizzati e solo spettatori di ciò che hanno avviato.

Questo non significa che la tecnologia robotica sia da demonizzare a prescindere. L’aumento della potenza dei mezzi di offesa ha paradossalmente prodotto anche l’«equilibrio del terrore», ovvero il fatto che gli arsenali atomici non siano mai stati utilizzati dopo le immani stragi di Hiroshima e Nagasaki. E, contemporaneamente, al crescere della sofisticazione delle armi, il tasso di violenza nel mondo è andato calando. Ciò implica, però, che solo una cultura della pace coltivata dagli esseri umani è vera garanzia contro la volontà di sopraffazione e di morte.

Senza tuttavia dimenticare quanta irrazionalità, impulsività e incapacità di prevedere le conseguenze di certe scelte di noi, imperfetti esempi di homo sapiens, abbiano contribuito a esplosioni di violenza e ad atroci carneficine di nostri simili. A mitigare questi difetti possono aiutare anche robot e intelligenza artificiale, con la loro consequenziale e logica efficienza.

A patto, però, che a monte vi sia una ricerca e una programmazione 'umanistica'. L’impegno di tanti ricercatori fa sperare. La vigilanza di tutti rimane condizione indispensabile perché la guerra faccia altri passi indietro e le lancette dell’orologio dell’apocalisse non si avvicinino all’ora fatale.

© Riproduzione riservata
COMMENTA E CONDIVIDI