Chi mette un limite alle «macchine» che fanno la guerra?
I rischi dell'intelligenza artificiale militare

La guerra in Iran è già un conflitto in cui siamo chiamati a decidere quanto potere siamo davvero disposti a delegare alle macchine. E, soprattutto, chi ha il diritto di porre a quel potere dei limiti. Nell’anno 2026 la guerra, da confronto di eserciti e strategie, è diventata un laboratorio tecnologico in cui l’intelligenza artificiale ridisegna tempi, responsabilità e rischi del conflitto. Dall’Ucraina all’Iran, passando per Gaza, l’IA è ormai parte integrante delle operazioni militari: analizza flussi di dati, individua bersagli, anticipa movimenti nemici e suggerisce scenari operativi. Orienta chi spara e quanto sparare, diventando un fattore strategico. E questo basta a cambiare tutto.
Alla vigilia dell’attacco all’Iran, lo scontro tra il governo Trump e Anthropic, una delle aziende più avanzate nello sviluppo dell’IA, ha proposto una disputa che non riguarda solo un contratto da 200 milioni di dollari con il Pentagono, ma una delle questioni centrali del nostro tempo. Il Pentagono vede nell’IA la chiave per mantenere la superiorità militare in un mondo in cui la velocità decisionale è diventata un’arma. Chi osserva, elabora e decide più rapidamente vince. Quanto spazio c’è ancora per la capacità di discernimento dell’essere umano? L’IA non è un’arma come le altre: non ha un raggio d’azione fisso, non esegue un’unica funzione. Può analizzare dati, progettare cyberattacchi, adattarsi a nuove informazioni, definire obiettivi, gestire sciami di droni autonomi. È un sistema aperto, evolutivo e potenzialmente imprevedibile. Per questo Anthropic aveva posto due limiti invalicabili: no alla sorveglianza di massa sugli americani, no alle armi autonome capaci di uccidere senza intervento umano. Il rifiuto della società di Dario Amodei ha scatenato la reazione del governo Usa, fino alla decisione di classificare Anthropic come “rischio per la catena di fornitura della difesa”, una misura finora riservata a società straniere come Huawei. Risultato: tutte le agenzie federali hanno dovuto interrompere l’uso delle tecnologie Anthropic. Ad allinearsi alla visione del Pentagono è stata invece OpenAI: nel giro di poche ore, Sam Altman ha firmato un accordo per fornire i propri modelli ai sistemi classificati militari.
Il tutto avviene in un contesto privo di regole. Le Convenzioni di Ginevra non contemplano macchine capaci di selezionare autonomamente i propri bersagli. Le Nazioni Unite tentano da anni di stabilire direttive sull’uso dell’IA in guerra, ma senza successo. E in uno scenario di progressivo calo del multilateralismo, non c’è ottimismo sul fatto che si arrivi presto a norme condivise. Intanto, i droni autonomi sono già passati dalle ipotesi futuristiche alla realtà operativa. Sullo sfondo, per gli Usa c’è anche la sfida con la Cina, che non si pone limiti nell’uso dell’IA per sorveglianza di massa, repressione del dissenso, manipolazione informativa, e uso di armi autonome in un eventuale conflitto. Per Washington, ogni vincolo imposto alle aziende americane rischia di tradursi in un vantaggio competitivo per Pechino, che si muove senza freni etici né vincoli legali. Per Anthropic, invece, proprio l’esempio cinese è un’anticipazione inquietante di ciò che potrebbe diventare anche l’Occidente se la logica dell’emergenza militare dovesse prevalere su quella della responsabilità.
Siamo ai primi segnali di un dibattito destinato a crescere. L’uomo sarà ridotto a supervisore, co-pilota o ultimo garante morale, oppure diventerà un ostacolo da aggirare per accelerare le operazioni. Nel frattempo, la corsa all’IA militare procede più rapidamente della capacità politica di governarla.
© RIPRODUZIONE RISERVATA






