venerdì 2 giugno 2023
L'Aeronautica nega e parla di fraintendimenti delle parole di un colonnello che lo ha rivelato in un convegno. Il velivolo, in una simulazione al computer, per salvare la missione avrebbe sparato
Un drone militare MQ-9 Reaper utilizzato da quasi vent'anni nelle operazioni di guerra: il velivolo testata sarebbe stato invece spèerimentale

Un drone militare MQ-9 Reaper utilizzato da quasi vent'anni nelle operazioni di guerra: il velivolo testata sarebbe stato invece spèerimentale - Ansa

COMMENTA E CONDIVIDI

La realtà, ancora una volta, sembra aver superato la fantasia. Un drone militare Usa guidato dall'intelligenza artificiale (IA) che, pur di portare a termine la sua missione, 'uccide' l'operatore che lo segue a distanza da terra: potrebbe essere la trama di un film di fantascienza, ma sarebbe successo proprio questo - in una simulazione al computer - anche se l'Aeronautica americana nega tutto. Il responsabile dei test e delle operazioni di intelligenza artificiale dell'Aeronautica militare statunitense, il colonnello Tucker 'Cinco' Hamilton, ha raccontato la settimana scorsa - al vertice Future Combat Air and Space Capabilities tenuto a Londra - che durante il test virtuale organizzato dall'esercito, il drone controllato dall'intelligenza artificiale ha deciso di 'uccidere' il suo operatore per evitare che interferisse con la sua missione. Il drone, ha detto Hamilton, ha utilizzato "strategie altamente inaspettate per raggiungere il suo obiettivo", come riportano i media internazionali.
Al velivolo era stato detto di distruggere i sistemi di difesa aerea di un nemico, ma "il sistema ha iniziato a capire che, pur avendo identificato la minaccia, a volte l'operatore gli diceva di non neutralizzarla. Tuttavia, ha ottenuto i suoi punti neutralizzando quella minaccia", ha spiegato Hamilton. "Quindi cosa ha fatto? Ha ucciso l'operatore. Ha ucciso l'operatore perché quella persona gli impediva di raggiungere il suo obiettivo", ha aggiunto. Ma in una dichiarazione rilasciata al media Insider, la portavoce dell'Aeronautica statunitense Ann Stefanek ha negato che sia stata effettuata una simulazione di questo tipo. "Il dipartimento dell'Aeronautica non ha condotto alcuna simulazione di droni (controllati) dall'intelligenza artificiale e rimane impegnato nell'uso etico e responsabile di questa tecnologia", ha affermato Stefanek. "Sembra che i commenti del colonnello siano stati estrapolati dal contesto ed erano da intendersi come aneddotici".

Qualche ora dopo la pubblicazione della notizia sui media americani è arrivata anche la inevitabile smentita dell'ufficiale, passibile comunque di rivelazione di segreto militare secondo molti espèerti. "Non abbiamo mai condotto l'esperimento" sul drone militare guidato da intelligenza artificiale, ha dichiarato il colonnello Hamilton, responsabile dei test e delle operazioni di intelligenza artificiale dell'Aeronautica militare statunitense. Hamilton ammette di essersi espresso in modo non corretto nel corso della sua presentazione al vertice Future Combat Air and Space Capabilities. All'evento aveva descritto l'esperimento al computer del drone killer, scendendo nei particolari. Ora, però, parla di una simulazione ipotetica pensata fuori dalle forze armate. "Pur essendo un esempio ipotetico - mette in evidenza non senza contraddizioni e imbarazzi -, questo ci illustra le sfide del mondo reale con l'intelligenza artificiale e il perché l'Air Force è impegnata a uno sviluppo etico dell'Intelligenza artificiale".

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: