Armi autonome fuori controllo? Ma il modo per fermarle ora c’è
I sistemi bellici governati dall’intelligenza artificiale, all’opera nel teatro di guerra iraniano, pongono enormi interrogativi sulla loro incontrollabilità e sulla responsabilità di decisioni ed effetti letali. Il futuro è già scritto? Tutt’altro. E dipende anche da noi

Gentile Direttore, l’opportuno e centrato articolo di Paolo Alfieri “Chi mette un limite alle ‘macchine’ che fanno la guerra?” pubblicato su Avvenire del 13 marzo 2026, coglie con lucidità la posta in gioco nel contesto bellico che stiamo vivendo: la guerra in Iran ci interroga su quanto siamo disposti a delegare alle macchine la decisione di togliere la vita. Ma c’è un rischio in questo tipo di dibattito: quello di trattare il problema come se fosse del tutto nuovo ed emergente, e come se la società civile stesse solo adesso alzando lo sguardo. Non è così. E dirlo non è autoincensarsi, ma fare un passaggio di verità che contiene anche una speranza concreta di fermare questa deriva.
Nel 2013, tredici anni fa, veniva lanciata la campagna internazionale “Stop Killer Robots”, coalizione globale di oltre 270 organizzazioni della società civile di cui Rete Pace Disarmo è partner attivo in Italia. L’obiettivo era, ed è, ottenere uno strumento giuridico internazionale vincolante che proibisca i sistemi d’arma letali autonomi: quelle macchine capaci di selezionare e colpire obiettivi senza un controllo umano effettivo. Quindi non solo l’utilizzo di modelli decisionali basati sull’Intelligenza Artificiale per corroborare decisioni militari, ma lo sviluppo di veri e propri sistemi capaci di attivarsi, selezionare un obiettivo, decidere “l’ingaggio” (cioè se sparare o meno...) in piena autonomia. Tredici anni fa sembrava fantascienza. Oggi Alfieri ce ne descrive la drammatica e devastante realtà operativa in Iran, in Ucraina, a Gaza.
Il punto che vorrei portare all’attenzione dei lettori non è dunque la scoperta del problema ma la proposta di soluzione: essa esiste, è articolata, è sostenuta da una maggioranza crescente di Stati. Quando Alfieri conclude che «la corsa all’IA militare procede più rapidamente della capacità politica di governarla», dice sicuramente una cosa vera ma forse incompleta: la capacità di proposta c’è, costruita in anni di lavoro diplomatico e di pressione della società civile. A mancare è, piuttosto, la volontà della politica.
Lo scontro tra Anthropic e il governo Trump ha avuto una coda significativa. Appena due giorni prima che si aprisse a Ginevra la riunione del Gruppo di Esperti governativi (Gge) sulle armi letali autonome nell’ambito della Convenzione su certe armi convenzionali (Ccw) dell’Onu il Wall Street Journal rivelava che gli Stati Uniti avevano usato il modello linguistico di Anthropic per supportare il targeting negli attacchi contro l’Iran: oltre mille obiettivi colpiti nelle prime ventiquattr’ore. Non un’ipotesi futuribile ma una scelta resa concreta, con impatti sanguinosi purtroppo misurabili in vite umane. La notizia ha fatto irruzione nella sala negoziale di Ginevra, e gli effetti si sono visti: oltre settanta Paesi, tra cui un significativo gruppo di Stati africani, hanno chiesto l’avvio di negoziati formali per un Trattato vincolante sulle armi autonome.
Una notizia che si è però persa nel rumore della guerra e dei bombardamenti, ma che va evidenziata con forza: la strada verso una norma internazionale esiste, costruita e percorsa da anni. Il mandato Ccw si concluderà a fine del 2026 e alla Conferenza di Revisione di novembre gli Stati dovranno decidere se aprire negoziati formali per un Trattato. È forse l’ultima finestra utile prima che la proliferazione di questi sistemi renda qualsiasi accordo inapplicabile. Il delegato del Belgio, intervenendo a Ginevra, ha detto una cosa semplice e vera: «Il mondo intorno a noi è cambiato significativamente. A un certo punto, questa bolla che abbiamo costruito deve produrre qualcosa che si connetta con il mondo reale».
La storia del diritto internazionale umanitario – dalle mine antiuomo alle munizioni a grappolo – dimostra che gli accordi si raggiungono quando la pressione della società civile e di una coalizione di Stati è abbastanza forte da rendere politicamente costoso il non-accordo.
Come ha dichiarato Nicole Van Rooijen, direttrice esecutiva di “Stop Killer Robots”, «il tempo della procrastinazione è finito». La strada c’è. Ora tocca agli Stati percorrerla.
Francesco Vignarca è Coordinatore della Campagna di Rete Pace Disarmo, partner italiano della campagna Stop Killer Robots
© RIPRODUZIONE RISERVATA






