La lettera aperta dei dipendenti Google: «Trump non usi la nostra IA a scopi militari»
Oltre 560 professionisti della big tech hanno scritto all'ad Pichai per fermare l'accordo con il Pentagono. «Non contribuiamo allo sviluppo di armi autonome e alla sorveglianza di massa»

Una minoranza strategica di professionisti delle intelligenze artificiali si è sollevata per fermare la collaborazione delle big tech con l’industria delle armi e della sorveglianza di massa. Sono gli oltre 560 dipendenti di Google – a livello globale, l’azienda di Alphabet Inc. contava a fine 2025 oltre 190mila dipendenti – che ieri hanno firmato una lettera aperta rivolta all’amministratore delegato Sundar Pichai, esortandolo a rifiutare di consentire al governo americano di usare la propria intelligenza artificiale per operazioni militari classificate. «Vogliamo che l’IA vada a beneficio dell’umanità, anziché essere impiegata in modi disumani o estremamente dannosi – si legge nella lettera –. Ciò include le armi autonome letali e la sorveglianza di massa, ma si estende anche oltre».
La preoccupazione dei dipendenti di Google nasce dalla firma di un accordo tra il colosso tecnologico e il dipartimento della Difesa degli Stati Uniti. La società di Alphabet si è unita, negli scorsi giorni, a un elenco sempre più nutrito di big tech – OpenAI e xAI di Elon Musk comprese – che consentono al governo statunitense di utilizzare i propri modelli di intelligenza artificiale per “attività classificate”. Secondo quanto riportato dalla testata di settore The Information, l’accordo permette di fatto al Pentagono di utilizzare l’IA di Google per «qualsiasi scopo lecito». In questa definizione è compresa una vasta gamma di attività sensibili in cui le reti neurali delle intelligenze artificiali svolgerebbero un ruolo chiave. Tra queste, compaiono anche molte operazioni belliche: dalla pianificazione di missioni militari ai comandi che regolano i mirini di droni e di altre armi controllate a distanza. In materia, il Pentagono ha firmato accordi dal valore massimo di 200 milioni di dollari per ciascuno dei più importanti laboratori di intelligenza artificiale statunitense: tra questi, appunto, Google e OpenAI. Secondo quanto appreso da The Information, in ognuno di questi accordi il governo statunitense avrebbe mantenuto la massima flessibilità sull’impiego dell’IA nella Difesa, per non essere limitato dagli avvertimenti dei creatori contro l’utilizzo di intelligenze artificiali inaffidabili in campo militare.
L’accordo con Google – trapelato al momento dalla sola fonte in possesso di The Information e non verificato in altro modo – includerebbe, in particolare, una clausola che specifica che «le parti concordano sul fatto che il sistema di IA non è destinato, né dovrebbe essere utilizzato, per la sorveglianza di massa interna o per armi autonome (inclusa la selezione dei bersagli) senza un’adeguata supervisione e controllo umano», ma aggiunge anche che «l’accordo non conferisce alcun diritto di controllo o di veto sulle decisioni operative legittime del governo» statunitense. Questa, in particolare, sarebbe la condizione che ha innescato la mobilitazione dei dipendenti di Google, che nella lettera a Pichai hanno elencato una serie di possibili applicazioni dannose dell’intelligenza artificiale in “attività classificate”. «Riteniamo che la nostra vicinanza a questa tecnologia comporti una responsabilità nel segnalare e prevenire i suoi usi più non etici e pericolosi – si legge nella lettera –. Pertanto, vi chiediamo di rifiutare di rendere disponibili i nostri sistemi di IA per attività classificate», prima che venga impiegata in modi «disumani o estremamente dannosi». «Prendere la decisione sbagliata in questo momento – concludono i dipendenti di Google – causerebbe danni irreparabili alla reputazione, al business e al ruolo di Google nel mondo».
La risposta di un portavoce di Google è arrivata ai microfoni di Reuters. «Riteniamo che fornire l’accesso Api – l’insieme di regole e protocolli che consente a un software di comunicare e scambiare dati in modo sicuro, ndr – ai nostri modelli commerciali, con pratiche e termini standard del settore, rappresenti un approccio responsabile a sostegno della sicurezza nazionale». E forse è anche l’unica strada percorribile senza entrare in guerra con il governo Trump, come insegna la vicenda Anthropic. La società, per essersi rifiutata di rimuovere le restrizioni sull’uso dell’IA in ambito militare, è stata dichiarata un rischio per la supply chain della sicurezza nazionale dal segretario alla Difesa Pete Hegseth e, dal 27 febbraio scorso, non può intrattenere rapporti commerciali con i contractor militari. Un rischio che Google, pur avendo recentemente investito quaranta miliardi di dollari in Anthropic, non vuole correre sulla propria IA.
© RIPRODUZIONE RISERVATA






