sabato 2 giugno 2018
Dopo le proteste e la petizione di alcuni dipendenti, il colosso del Web avrebbe interrotto la collaborazione miliardaria con il Pentagono sull'intelligenza artificiale per i robot
Un drone MQ-1, in dotazione all'Aviazione militare statunitense, nei cieli dell'Afghanistan

Un drone MQ-1, in dotazione all'Aviazione militare statunitense, nei cieli dell'Afghanistan

COMMENTA E CONDIVIDI

Stavolta qualcosa è andato storto. Secondo fonti della Bbc ,Google non rinnoverà più il contratto con il dipartimento della Difesa statunitense. Il colosso di internet sta già fornendo tecnologie al Pentagono,per cernere le immagini captate dai droni e dai satelliti militari. Il timore degli scienziati civili è che l’automatizzazione estrema dell’intelligenza artificiale spinga ad abbassare la soglia morale degli attacchi armati. La verità è che il Pentagono è alle strette. Ha una flotta di 11mila droni, che rovesciano un diluvio di immagini. Quelle stoccate equivalgono a 37 anni di video. Il 99% non è analizzato da nessuno.

E ai vertici della Difesa hanno pensato di creare un’equipe mista: il Team Interfunzionale per la guerra Algoritmica, che dal 2017 federa cervelli di Google e del DoD americano. Il progetto, ribattezzato Maven, punta a creare strumenti di analisi per discriminare gli obiettivi nemici da colpire, come i veicoli, gli assembramenti di guerriglieri e così via. Il Pentagono ha fretta. Nei suoi disegni le macchine robotiche dovrebbero suggerire all’uomo chi, come e quando colpire,massimizzando l’efficacia dei droni.

Ma non tutti la pensano così, nemmeno fra gli scienziati di Google. Migliaia di dipendenti hanno firmato una petizioneper chiedere all’azienda di sospendere la collaborazione. Alcuni affermano che Maven è innocuo, che potrebbe evitare raid erronei.

Ma i rischi di deriva sono enormi. Andiamo con ordine. Se l’obiettivo del progetto è classificare immagini in tempo reale, chi può garantire che il sistema di autoapprendimento non venga piratato e non abbia falle originarie? Potrebbe essere ’corrotto’ e deviato su obiettivi del tutto estranei, come i civili innocenti. Le immagini potrebbero essere hackerate, utilizzando ad esempio micro-modifiche di pixel, lasciando passare senza allarme quelle di un terrorista e dirottando il sistema su uno spedale. Siccome la guerra robotica si avvia ad essere la norma, è meglio attorniarla di paletti. Si pensi allo scenario dei velivoli senza pilota.

Gli aerei da guerra futuri saranno per lo più autonomi. Il pilota, a bordo di un aeronave centrale o defilata, gestirà una flotta intera di droni, ciascuna con una missione differente, dalla sorveglianza all’individuazione degli obiettivi,fino all’ordine di fuoco. Valutando lo scenario tattico, il pilota potrà attivare l’autonomia della funzione letale per alcuni robot dronizzati. E il ciclo informazione-guerra-morte sarà interamente gestito dalle macchine. Una vera incognita anti-etica.


© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: