Pentagono-Anthropic, scontro totale mentre l’IA entra ovunque

Braccio di ferro tra Anthropic e Pentagono: in gioco ci sono i limiti etici dell’IA (sorveglianza di massa e armi autonome) e chi deve decidere fin dove può spingersi.
February 25, 2026
Pentagono-Anthropic, scontro totale mentre l’IA entra ovunque
Guilherand-Granges, France - March 06, 2025. Anthropic: AI safety company developing Claude language models. Founded by ex-OpenAI members, focusing on safe AI systems.
C'è un'azienda che costruisce uno dei sistemi di intelligenza artificiale più potenti al mondo, e che si rifiuta di togliere i limiti che impediscono al proprio prodotto di sorvegliare milioni di cittadini americani al suo prodotto o di prendere decisioni letali senza supervisione umana. Dall'altra parte c'è il Dipartimento della Difesa degli Stati Uniti, che pretende mano libera e un’Ai senza limiti. È la vicenda che in queste ore sta tenendo col fiato sospeso il mondo della tecnologia, e che potrebbe segnare un precedente destinato a pesare per gli anni a venire.
Ma andiamo per gradi. Martedì scorso il segretario alla Difesa Pete Hegseth ha convocato al Pentagono il fondatore e amministratore delegato di Anthropic, Dario Amodei, per un incontro che fonti vicine alla vicenda hanno descritto come tutt'altro che amichevole. Secondo quanto riportato da Axios e confermato dalla CNN, Hegseth ha dato tempo ad Anthropic fino a venerdì sera per rimuovere le restrizioni che impediscono al suo modello Claude di essere impiegato per la sorveglianza di massa dei cittadini americani e di essere integrato in armi autonome prive di controllo umano. Le alternative, in caso di rifiuto, sono tre: la rescissione del contratto da 200 milioni di dollari, l'inserimento dell'azienda in una sorta di lista nera governativa — la cosiddetta "supply chain risk" — oppure il ricorso al Defense Production Act, una norma degli anni Cinquanta che consente al governo di obbligare un'azienda privata a fornire i propri prodotti per esigenze di sicurezza nazionale. Claude è attualmente l'unico modello di intelligenza artificiale commerciale operativo nelle reti classificate del Pentagono, fatto che rende la posizione di Anthropic particolarmente delicata. L'azienda, fondata nel 2021 da ex membri di OpenAI, ha costruito la propria identità attorno al concetto di “sicurezza responsabile”. Anche nell’incontro di martedì Amodei ha ribadito le due "linee rosse" della compagnia, insistendo sul fatto che l'intelligenza artificiale non è ancora abbastanza affidabile per governare armamenti in modo autonomo, inoltre non esiste un quadro normativo adeguato per la sorveglianza di massa tramite sistemi di intelligenza artificiale. Secondo quanto riportato dalla NPR, in un saggio pubblicato il mese scorso, Amodei ha scritto che un sistema di intelligenza artificiale capace di analizzare miliardi di conversazioni potrebbe individuare sacche di dissenso e soffocarle prima che crescano…uno scenario che considera inaccettabile.
Il Pentagono, dal canto suo, ha definito le restrizioni di Anthropic un caso di "woke AI" (intelligenza artificiale ideologizzata), un neologismo utilizzato dall'amministrazione Trump per criticare le protezioni di sicurezza dei sistemi di intelligenza artificiale. Nel frattempo, i concorrenti si sono adeguati alle richieste governative: xAI di Elon Musk ha ottenuto questa settimana l'accesso alle reti classificate dopo aver accettato che il proprio modello Grok possa essere usato per qualsiasi scopo legale. OpenAI e Google stanno accelerando il processo per ottenere lo stesso tipo di autorizzazione. La partita è aperta, e il suo esito deciderà chi avrà l'ultima parola sull'uso militare dell'intelligenza artificiale più avanzata: le aziende che la sviluppano, o i governi che la vogliono impiegare.
Mentre a Washington si consuma questo braccio di ferro, il resto del mondo AI non si ferma. Standard Intelligence, una società di San Francisco, ha presentato FDM-1, un modello che impara a usare il computer guardando video, esattamente come farebbe un essere umano che osserva un collega mentre lavora. La novità è nell'approccio: invece di apprendere da immagini fisse dello schermo, FDM-1 analizza filmati in tempo reale, fino a quasi due ore di attività continuativa, con una capacità di elaborazione cinquanta volte superiore a quella dei modelli esistenti. Il sistema è stato addestrato su undici milioni di ore di registrazioni video. Le prove sono sorprendenti: il modello è in grado di costruire ingranaggi in un software di modellazione tridimensionale (stile Blender); di individuare errori nel codice di un'applicazione bancaria e, con meno di un'ora di dati di addestramento specifico a disposizione, di guidare un'automobile vera per le strade di San Francisco, controllata attraverso le frecce di una tastiera e alimentata da flussi video in diretta. È un passo significativo, perché significa che i video presenti su internet — tutorial, registrazioni di lavoro, guide pratiche — possono diventare una fonte di apprendimento per macchine capaci di svolgere compiti operativi complessi.
Ieri, inoltre, Anthropic — nonostante le tensioni col Pentagono — ha trovato il tempo di annunciare un importante aggiornamento di Cowork, la sua piattaforma pensata per portare l'intelligenza artificiale negli uffici e nelle aziende. La novità principale riguarda l'introduzione di agenti preconfigurati per dieci dipartimenti aziendali, dalle risorse umane all'ingegneria, dalla finanza alla gestione patrimoniale. Sono stati aggiunti nuovi connettori per collegare Claude agli strumenti che le aziende già usano, come Google Drive, Gmail, DocuSign e FactSet. Le imprese possono ora creare dei marketplace privati per distribuire agenti personalizzati ai propri dipendenti, decidendo chi può accedere a cosa. Kate Jensen, responsabile del mercato americano per Anthropic, ha commentato che la promessa degli agenti intelligenti per le aziende nel 2025 si era rivelata prematura, ma per un difetto di approccio, non di ambizione. Una funzione particolarmente interessante è la possibilità per Claude di lavorare a cavallo tra Excel e PowerPoint, analizzando i dati del primo per trasformarli in una presentazione nell'altro, senza che l'utente debba intervenire. Il lancio ha avuto ripercussioni immediate in Borsa: i titoli delle società di software hanno subìto significative perdite, segno che gli investitori prendono molto sul serio la capacità dell'intelligenza artificiale di sostituire funzioni finora affidate a programmi specializzati.
Sono giornate dense, in cui il progresso tecnologico e le questioni etiche si intrecciano in modo sempre più stretto. In particolare, la vicenda della diatriba tra Anthropic e il Pentagono pone una domanda che riguarda tutti, non solo gli addetti ai lavori: fino a che punto è giusto che la tecnologia più potente del pianeta venga piegata alle esigenze militari, e chi ha il diritto di decidere dove debba cessare l’autonomia delle macchine? È una questione che tocca la dignità della persona, il rispetto della vita e il principio indifferibile che nessuno strumento, per quanto sofisticato, dovrebbe mai sostituirsi alla coscienza umana nelle decisioni che riguardano la vita e la morte.

© RIPRODUZIONE RISERVATA