domenica 30 luglio 2023
Responsabili delle vittime sono tutti coloro che hanno partecipato alla messa in funzione di un drone killer
Un soldato ucraino manovra un drone militare

Un soldato ucraino manovra un drone militare - Reuters/Sofiia Gatilova

COMMENTA E CONDIVIDI

Il soldato avanza lentamente. A poche centinaia di metri intravvede le linee nemiche. È allo scoperto. Un ronzio, come un sibilo profondo alla sua sinistra. Il drone lo punta. Il tempo di voltarsi e poi… La storia può finire in tanti modi, perlopiù tragici. Ma non è di questo che vogliamo parlare. Un drone armato è uno strumento di guerra, classificato dal punto di vista informatico come “agente artificiale morale”. La sua missione è semplice: tenere sotto controllo un’area delimitata, alla ricerca di un bersaglio da annientare. È un agente perché svolge attivamente una funzione, sia in modalità supervisionata da un operatore che lo controlla a distanza, sia in modalità autonoma, senza cioè alcun controllo in tempo reale. Ovviamente è artificiale, essendo una macchina costruita dall’uomo. Ciò che stupisce è che sia morale, nel senso comune che viene dato a questo aggettivo qualificativo.

Che morale può mai avere un’arma letale in grado di agire anche in piena autonomia? Torniamo all’inizio del millennio. Colin Allen, insieme ai colleghi Gary Varner e Jason Zinser, tutti del Dipartimento di filosofia dell’Università del Texas, pubblica l’articolo “Prolegomeni a qualsiasi futuro agente artificiale morale” in cui si afferma che «robot dotati della capacità autonoma di agire utilmente nei confronti degli umani avranno anche la capacità di danneggiare gli umani e gli altri esseri senzienti». L’articolo affronta questo tema da numerosi punti di vista etici e tecnologici, concludendo che un comportamento ispirato a quello umano, incline a essere talvolta considerato immorale, non può essere accettabile nelle macchine. E aggiunge che tale comportamento avrebbe delle caratteristiche non replicabili in una macchina, da un punto di vista computazionale. Anticipando i tempi, Allen e i suoi colleghi avevano individuato i rischi di una tecnologia allora in fase iniziale di sviluppo, l’intelligenza artificiale.

Se apriamo il drone, protagonista della storia appena raccontata, scopriamo che è formato da componenti che lo fanno volare, eliche montate in posizione orizzontale, una batteria che le alimenta e l’elettronica di bordo. C’è anche un’arma che lo rende letale. L’elettronica, a sua volta, comprende un’antenna per le comunicazioni, numerosi sensori in grado di osservare il territorio e uno o più calcolatori per il controllo degli altri componenti. Ma dove si nasconde la morale? Il luogo più probabile sono i calcolatori, gli unici elementi in grado di esibire un comportamento autonomo e razionale. Apriamone uno e scopriamo che è formato da un’unità di calcolo, un po’ di memoria e tanti cavi, molto piccoli, che collegano i componenti interni, tra loro e con tutti gli altri. La morale non può essere nascosta nell’unità di calcolo, progettata per eseguire un insieme predeterminato di operazioni logicoaritmetiche sui dati contenuti nella memoria, sotto la guida di un programma, un software, anch’esso contenuto nella memoria.

Viene il sospetto che quindi risieda nella memoria, e in particolare nel software e nei dati usati nel calcolo. Si tratta di un software molto sofisticato, che deve elaborare i dati provenienti dai sensori, riconoscere i bersagli, tenere sotto controllo il livello di carica della batteria per far tornare il drone alla base, comunicare con l’eventuale operatore umano. Questo software fa uso dell’intelligenza artificiale, opportunamente addestrata per svolgere queste funzioni. Se la morale è nel software e nei dati, ciò significa che sono stati gli umani che hanno scritto il software e che hanno stabilito quali dati utilizzare durante la fase di addestramento ad averla definita e poi messa nel drone. Sono loro i responsabili delle vittime individuate e colpite dal drone? O sono coloro che hanno fornito il drone a chi l’ha poi usato in combattimento? O il vero responsabile è colui che l’ha attivato e l’ha fatto alzare in volo?

Tra questi potenziali responsabili non compare l’intelligenza artificiale, così come non compare la fisica che fa funzionare le eliche, la batteria, l’antenna, o la matematica che descrive le operazioni logicomatematiche svolte dai calcolatori di bordo. Ci troviamo in una situazione che il filosofo Dennis E. Thompson ha definito come “il problema delle molte mani”: la morale del drone è una responsabilità che deve essere attribuita a tutti coloro che hanno partecipato alla realizzazione e alla messa in funzione di quest’arma micidiale. I recenti sviluppi dell’intelligenza artificiale hanno reso possibile la realizzazione di agenti artificiali morali che operano in svariati ambiti, oltre a quello militare. La moratoria sullo studio e lo sviluppo dell’intelligenza artificiale non può essere un alibi per ignorare o nascondere la costruzione e l’uso immorale di questi agenti. Da molte parti si auspica da tempo una moratoria sulle armi autonome. È questa la linea da seguire con fermezza e determinazione, per evitare di essere puntati da un drone armato.

© Riproduzione riservata
COMMENTA E CONDIVIDI