Stanno arrivando i "Killer Robots": che cosa sono e perché preoccupano

Presto potrebbero diventare operativi i sistemi d'arma autonomi. La Rete Italiana Pace e Disarmo e l’Iriad chiedono un Trattato di messa al bando o regolazione
January 15, 2026
La Campagna internazionale contro i robot killer al Palazzo di Vetro di New York
La Campagna internazionale contro i robot killer al Palazzo di Vetro di New York / Campaign to Stop Killer Robots
Di primo acchito possono sembrare fantascienza, ma il rischio che diventino operativi a breve è dietro l’angolo. Più di quanto si potrebbe immaginare. Sono i cosiddetti “Killer Robots”, sistemi d’arma autonomi letali, capaci, anche grazie alla mediazione dell’Intelligenza artificiale, di selezionare e colpire obiettivi senza un controllo umano significativo. Una prospettiva che solleva interrogativi etici, giuridici e umanitari di estrema rilevanza e mette pericolosamente in discussione principi fondamentali del diritto internazionale e della tutela dei diritti umani.
L’allarme è stato lanciato ieri, nella Sala Isma del Senato, durante l’incontro “Fermare la minaccia delle armi letali autonome: idee e prospettive per una regolamentazione internazionale”. Un confronto ospitato su iniziativa del senatore di Avs Tino Magni e promosso dalla Rete Italiana Pace e Disarmo, con il supporto dell’Istituto di Ricerche Internazionali Archivio Disarmo, nell’ambito della Campagna internazionale Stop Killer Robots. Unanime l’appello che è partito da tutti: l’urgenza di un Trattato di messa al bando o regolazione delle armi autonome. E la richiesta alla politica e alle istituzioni italiane di farsi carico concretamente della questione. Un impegno, ha assicurato Magni, di cui lui stesso si farà promotore.
«Il nostro Paese – ha incalzato Francesco Vignarca, coordinatore delle campagne della Rete Italiana Pace e Disarmo - ha oggi l’opportunità di assumere un ruolo guida nei negoziati internazionali sulle armi autonome letali, sostenendo con chiarezza un Trattato che ne vieti o limiti in modo stringente l’uso». Gli ha fatto eco Fabrizio Battistelli, presidente dell’Istituto di Ricerche Internazionali Archivio Disarmo, secondo cui «è indispensabile un accordo internazionale nel quadro delle Nazioni Unite». Dal momento che, ha sottolineato Vignarca, «alcuni sistemi d’arma sono molto vicini all’operatività». Mentre l’utilizzo dell’Intelligenza artificiale è stato già sdoganato in diversi conflitti. «Ad esempio, a Gaza – ha spiegato –, è certificato l’utilizzo dell’Ia da parte delle forze armate israeliane per selezionare obiettivi umani e strutturali, a cui segue una verifica velocissima e quindi poco accurata».
I relatori dell'incontro “Fermare la minaccia delle armi letali autonome: idee e prospettive per una regolamentazione internazionale” /Muolo
I relatori dell'incontro “Fermare la minaccia delle armi letali autonome: idee e prospettive per una regolamentazione internazionale” /Muolo
Una minaccia, quella delle «nuove tecnologie emergenti e convergenti», evidenziata anche dall’arcivescovo Vincenzo Paglia, presidente emerito della Pontificia Accademia per la Vita. Che ha posto l’accento su «una perversa alleanza» tra questi sistemi e il nucleare, che è «pericolosissima per la vita umana e per il creato». L’integrazione dell’Intelligenza artificiale nei sistemi militari, ha aggiunto, «è una delle sfide più critiche per la stabilità internazionale».
Da qui, la necessità di «un impegno politico deciso», come ribadito da Nicole van Rooijen, direttrice esecutiva della Campagna internazionale Stop Killer Robots. Perché «le armi autonome – ha detto - delegano a macchine e algoritmi decisioni di vita o di morte che devono restare sotto responsabilità umana». Sulla stessa scia, il premio Nobel per la Fisica Giorgio Parisi, che in video messaggio ha definito il problema «di estrema importanza e sottovalutato». E Riccardo Noury, portavoce di Amnesty International Italia, che ha richiamato l’attenzione sulle gravi conseguenze per i diritti umani. «Senza regole chiare e vincolanti, il rischio è quello di un uso indiscriminato di queste tecnologie, anche nel controllo delle frontiere e dell’ordine pubblico, con effetti devastanti sui civili e sull’accesso alla giustizia per le vittime», ha detto, evidenziando come la mancanza di responsabilità umana diretta renda complesso attribuire colpe su eventuali violazioni. Le conseguenze umanitarie sono state affrontate anche da Tommaso Natoli, responsabile dell’Unità Operativa di Diritto Internazionale Umanitario della Croce Rossa Italiana: «Il principio di distinzione e la protezione delle popolazioni civili - ha sottolineato - non possono essere garantiti se si affida a sistemi autonomi la scelta degli obiettivi». Mentre Marco Carlizzi, presidente di Etica Sgr, ha collegato il tema alle responsabilità del mondo economico e finanziario, spiegando che «orientare investimenti e scelte finanziarie verso la pace e la sicurezza umana è parte integrante di una visione responsabile dello sviluppo».

© RIPRODUZIONE RISERVATA