venerdì 16 settembre 2022
I robot killer interrogano: l'Ucraina è il campo di battaglia ideale ove sperimentare le nuove armi: dal drone kamikaze russo Kub-Bla al Kargu-2 e al Bayraktar TB2 turchi o quelli Usa
Una manifestazione, alla porta di Brandeburgo a Berlino, per fermare i “robot killer”

Una manifestazione, alla porta di Brandeburgo a Berlino, per fermare i “robot killer” - Ansa

COMMENTA E CONDIVIDI

L'intelligenza artificiale viene sempre più applicata al settore bellico e le grandi potenze non intendono limitarne in alcun modo l'uso. Infatti poco più di un mese fa l'apposita sessione della Convenzione su certe armi convenzionali Ccw dell'Onu a Ginevra, in cui si discute delle nuove armi, si è conclusa con un nulla di fatto per l'opposizione russa. Occorre dire che, insieme a Mosca, comunque già in precedenza Stati Uniti, Francia, Cina, Israele, Gran Bretagna avevano impedito accordi per la limitazione dell'applicazione dell' intelligenza artificiale nel campo della difesa. Inoltre la guerra in Ucraina è divenuta il campo di battaglia ideale ove sperimentare le nuove armi, dal drone kamikaze russo Kub-Bla al Kargu-2 e al Bayraktar TB2 turchi o sino agli Switchblade statunitensi, munizioni circuitanti che cercano da sole l'obiettivo, armi quasi alle soglie dell'autonomia completa.

Nei laboratori specializzati si lavora intensamente per realizzare il più presto possibile i cosiddetti Killer Robot, mentre ingenti somme vengono investite nel settore dell'intelligenza artificiale: si parla per il 2021 di 52,9 miliardi di dollari per gli Usa, di circa 17,2 miliardi di dollari per Pechino, di 4,6 per la Gran Bretagna, più di 1,6 miliardi nei prossimi cinque anni per Israele e diversi miliardi di dollari per il periodo 2016-2025 per Mosca. In Europa l'investimento si è triplicato nel giro di pochi anni: da 7 miliardi di dollari nel 2019 a 21 previsti nel 2023. Addirittura il rapporto Stanford AI Index del 2022 rilevava che gli investimenti privati nella ricerca sono arrivati a 93,5 miliardi di dollari nel 2021. In un incontro organizzato dall'Istituto di Ricerche Internazionali Archivio Disarmo, condotto dal presidente Fabrizio Battistelli, con Francesco Vignarca delle Rete Pace e Disarmo e con Riccardo Noury di Amnesty International, è stata evidenziata la pericolosità di affidare a delle macchine la decisione autonoma non solo di scegliere l'obiettivo e caricare l'arma, ma soprattutto di procedere ad un attacco, cioè di uccidere.

Tra l'altro in questo scenario gli stessi militari vengono espulsi dal teatro di guerra. In caso di errore, la macchina non può certamente essere processata e la responsabilità etica e giuridica diviene evanescente: il costruttore, il manutentore, il programmatore dell'algoritmo, il militare o chi?
Intanto si procede in ricerche che vedono l'intelligenza artificiale sempre più applicata a sistemi d'arma terrestri, aerei e marittimi: gli stessi droni, seppur guidati a distanza, sono il campo di sperimentazione avanzata di queste nuove tecnologie. Esse, inoltre, possono essere applicate anche nel campo della sicurezza interna, ad esempio nel riconoscimento facciale (già in atto in forma massiccia in Cina, ad esempio). Nel futuro, in un regime autoritario, un esercito o un corpo di polizia robotizzato potrebbe essere l'arma ideale per il controllo e la repressione interna. Eppure, da alcuni sondaggi d'opinione fatti in diversi Paesi, risulta che la popolazione sia contraria a questi killer robot: in Italia addirittura il 70% nel 2019. Per questo la Campagna Stop Killer Robots, che da tempo segue le sessioni Ccw a Ginevra, sta valutando di avviare un'iniziativa per arrivare ad un trattato o una convenzione internazionale per un controllo umano significativo, per il quale comunque sia sempre l'uomo a decidere e non la macchina sulla vita.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: