mercoledì 29 dicembre 2021
Cresce la ricerca (e la spesa) in dispositivi bellici in grado di scegliere il bersaglio e di colpirlo senza l’intervento umano
Un mezzo militare sperimentale senza conducente umano

Un mezzo militare sperimentale senza conducente umano - archivio

COMMENTA E CONDIVIDI

Pochi giorni fa si è chiusa la conferenza per la sesta revisione della convenzione dell’Onu sulle armi convenzionali (CCW, Convention on Certain Conventional Weapons). La Convenzione CCW è stata siglata nel 1980 (entrando in vigore nel 1983) con l’obiettivo di vietare o limitare l’utilizzo di alcuni dispositivi d’arma considerati incompatibili con il diritto umanitario internazionale poiché in grado di determinare ai combattenti sofferenze eccessive – in quanto non necessarie – o quantomeno ingiustificate o perché hanno come obiettivo quello di colpire la popolazione civile in maniera indiscriminata. La convenzione viene revisionata periodicamente includendo di volta in volta nuovi protocolli su specifici tipi di armi o su ulteriori definizioni e ambiti di applicazione. La sesta revisione della convenzione aveva come principale oggetto i dispositivi d’arma autonomi (LAWS, Lethal Autonomous Weapon Systems) o più semplicemente i diversi tipi di robot militari.

Un dispositivo d’arma autonomo è progettato per essere in grado di selezionare e colpire un obiettivo senza intervento da parte di un essere umano. Essi si basano su algoritmi di intelligenza artificiale e machine learning per essere in grado di modificare in maniera autonoma scelte e comportamenti durante le operazioni militari. In pratica, lo sviluppo crescente delle LAWS lascia presagire un futuro in cui le guerre saranno sempre più "disumanizzate". Sono necessarie quindi regole che delimitino l’utilizzo di tali dispositivi. La conferenza per una sesta revisione della convenzione CCW si è conclusa purtroppo senza alcun avanzamento specifico in questo senso. Nel documento finale si afferma che l’attuale diritto internazionale umanitario continuerà ad applicarsi a tutti i sistemi d’arma, incluse pertanto le LAWS oltre a includere due dichiarazioni di principio vale a dire che l’uomo deve rimanere responsabile in merito alle decisioni sull’utilizzo della forza e che lo sviluppo di LAWS e di nuove tecnologie, in generale, deve tenere conto dei risvolti etici e legali. Invero, non vi è stato alcun passo avanti nella scrittura di regole ad hoc che possano limitare nel prossimo futuro l’utilizzo e quindi lo sviluppo delle armi autonome.


Alla recente conferenza Onu, ribadita l’applicazione del diritto internazionale umanitario e reiterato l’auspicio di controllo diretto. No alla proposta di proibizione

​I rappresentanti dei Paesi membri permanenti del consiglio di sicurezza dell’Onu, pur con qualche differenza si sono ritrovati d’accordo nel non promuovere alcun nuovo protocollo aggiuntivo sulle LAWS laddove alcuni paesi emergenti (per esempio, il Brasile) si erano detti favorevoli a proibire l’uso di armi senza controllo umano. Nelle posizioni di alcuni Paesi (per esempio, Stati Uniti e Regno Unito) è presente l’idea che vi possano essere anche vantaggi dall’uso delle LAWS poiché i combattimenti potrebbero divenire meno cruenti in virtù di una migliore selezione degli obiettivi. Questo tipo di approccio era in qualche modo prevedibile poiché da diversi anni viene riproposta una narrativa di questo tipo. All’opinione pubblica globale infatti, è stato più volte indicato che la guerra, pur foriera di morte e sofferenze, grazie all’utilizzo della tecnologia può divenire meno sanguinosa in quanto sempre più "intelligente" e "chirurgica".

Si ricorderà che nella prima Guerra del golfo si è cominciato a utilizzare la famosa espressione di ‘bombe intelligenti’, al fine di indicare ordigni tecnologicamente avanzati che avrebbero dovuto essere in grado di selezionare accuratamente gli obiettivi per minimizzare le vittime civili. Successivamente si è scoperto che purtroppo le bombe intelligenti non avevano la precisione chirurgica dichiarata e molti civili erano comunque rimasti uccisi. Medesima narrativa è stata utilizzata più di recente anche per i droni armati che avrebbero dovuto anch’essi minimizzare le vittime civili. Ebbene, solo pochi giorni fa, finalmente, una recente indagine dell’influente quotidiano "New York Times" ha mostrato al grande pubblico un’evidenza – almeno parzialmente nota da tempo – vale a dire che le operazioni condotte per mezzo di droni armati non sono state più chirurgiche, accurate e incruente rispetto al passato ma che purtroppo le vittime civili sono state una costante anche negli attacchi realizzati con armi a controllo remoto.


È in gioco la qualità delle democrazie. Gli interventi militari devono sempre essere sottoposti a un vaglio e si deve poter individuare chi ha deciso

​In questo momento, pertanto, l’idea che le armi autonome possano costituire gli strumenti per una guerra meno cruenta e dispendiosa in termini di vite umane non sembra altro che la conferma di una posizione finalizzata a rassicurare l’opinione pubblica globale ma che probabilmente alla prova dei fatti mostrerà tutti i suoi limiti come nei casi citati dei droni e delle bombe intelligenti. Molti osservatori, infatti, evidenziano il rischio dell’effetto opposto dato che il ricorso alle armi autonome plausibilmente potrebbe rendere la guerra apparentemente poco ‘costosa’ e quindi maggiormente desiderabile per chi ne dispone con inevitabili conseguenze in termini umanitari.

Dobbiamo poi considerare anche altri tipi di costi e in particolare quelli che attengono alla qualità e alla tenuta delle nostre democrazie. Uno dei principi alla base delle società democratiche, infatti, è quello della responsabilità. I cittadini di un paese democratico devono essere in grado di identificare e valutare i responsabili delle azioni del loro governo, in particolare quando generino risultati non apprezzati ovvero non desiderati. Questo è decisamente più vero in una guerra. Nel caso in cui macchine letali autonome siano in grado di prendere decisioni su obiettivi e in merito all’intensità di un attacco, si pone ovviamente un problema oggettivo. Lo scenario da scongiurare in una società democratica è allora quello che vede la negazione della responsabilità rispetto alle azioni di robot militari autonomi.

Nel momento in cui un robot dovesse scegliere di operare brutalmente e rendersi protagonista di stragi o uccisioni indiscriminate sorgerebbe un problema di attribuzione di responsabilità. Non è da escludere che essa però rimanga indeterminata poiché almeno tre soggetti potrebbero essere additati come responsabili: i programmatori e coloro che hanno sviluppato gli algoritmi delle macchine autonome; il comando militare che ha decretato l’impiego delle macchine ovvero i decisori politici che ex ante hanno deciso in favore dell’impegno bellico e della sua intensità. Il fatto che l’attribuzione di responsabilità sia indeterminata coinvolgendo diversi soggetti, se non addirittura contemplando un errore tecnico, è sicuramente una pessima notizia per la democrazia. In linea generale, non è da escludere che leader politici tendano a sminuire il proprio ruolo laddove le azioni di guerra siano state caratterizzate da gravi abusi e da violazioni dei diritti umani. È evidente, però, che gli avanzamenti della tecnologia non debbano esonerare dalla responsabilità dell’uomo e che la guerra pur sanguinosa deve rimanere in ogni caso sotto il controllo umano.

© Riproduzione riservata
COMMENTA E CONDIVIDI