martedì 22 agosto 2017
L'appello di 116 esperti. Sono strumenti per guerre su scala più grande che mai. Tra i firmatari, Musk (Tesla), Wozniak (co-fondatore di Apple) e l’astrofisico Hawking
Un robot-soldato già arruolato dagli americani. Non è autonomo: richiede l'intervento umano per agire

Un robot-soldato già arruolato dagli americani. Non è autonomo: richiede l'intervento umano per agire

COMMENTA E CONDIVIDI

È un grido disperato che si leva dalle intelligenze critiche di un centinaio di autorevoli scienziati ed esperti di robotica. Tra i firmatari, Elon Musk (patron di Tesla, il più grande marchio automobilistico statunitense che produce mezzi elettrici), Steve Wozniak (il co-fondatore di Apple) e l’altrofisico Stephen Hawking. Tutti concordi su un punto: stiamo per varcare una soglia tabù, fitta di pericoli, se mai animeremo robot-killer e sistemi autonomi letali. I robot guerrieri, «una volta sviluppati, consentirebbero conflitti armati su una scala più grande che mai a una velocità che gli umani faticherebbero a comprendere», scrivono i 116 esperti. «Potrebbero essere armi di terrore, armi in mano a despoti e terroristi contro al popolazione innocente, armi che potrebbero essere oggetto di violazioni informatiche che le costringerebbe a comportarsi in modo imprevisto».

La robotica si sta emancipando in tutti gli scenari probabili, terrestri, aerei, marittimi e spaziali. Conquista ogni campo. Il problema è che il mondo della guerra sta marciando verso l’alba di una terza rivoluzione strategica, dopo l’ipervelocità, la lotta sottomarina, le armi nucleari e l’informatizzazione delle armi. Lo dicono i documenti strategici americani e francesi. E lo confermano le ricerche a tutti i livelli, negli Stati Uniti, in Cina, in Russia, in Francia e in Gran Bretagna. Anche i piccoli Paesi stanno serrando le righe. Sfornano robot militari l’Estonia, Israele e la Corea del Sud, da sempre all’avanguardia. E c’è un problema che sarà difficile arginare, perché l’intelligenza artificiale sta invadendo il quotidiano e perché le tecnologie belliche sono sempre più duali, fertilizzate dalle innovazioni civili e tradotte a fini militari. Con molte vulnerabilità.

Che cosa succederebbe se il codice informatico che attiva la funzione letale di un robot-killer fosse piratato? Non tutti i Paesi del mondo condividono i valori del diritto internazionale dei conflitti armati. Basti vedere che cosa sta succedendo in Siria e in Yemen. I 116 scienziati chiedono un bando definitivo dei robot-killer, «da aggiungere alla lista di armi proibite dalla convenzione dell’Onu del 1983». Quella che include le armi chimiche e i laser accecanti. Un gruppo di esperti delle Nazioni Unite sta già lavorando sui rischi della loro diffusione.

Ma non è il caso di farsi troppe illusioni. Ci sono interessi e grosse potenze coinvolti e la lezione che viene dalla storia militare è amara. Ogni innovazione tecnologica che ha offerto un vantaggio tattico o strategico è stata perseguita e integrata con grandi sforzi di ricerca. La verità è che le armi di cui parliamo rischieranno pure di aprire il vaso di Pandora dell’etica algoritmica che soppianta l’umana, ma fanno gola a troppi. In caso di guerra simmetrica fra colossi militari sarebbero decisive, perché sono più reattive dell’uomo, permettono di fronteggiare attacchi saturanti e non hanno bisogno di riposare. Cambieranno il volto della guerra. In peggio.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: