Le big tech, la guerra e la coscienza dell'ingegnere

La lettera aperta che centinaia di dipendenti di Google hanno indirizzato all’Ad chiedendo di rifiutare qualsiasi accordo che renda i sistemi di IA dell’azienda disponibili per i carichi di lavoro classificati del Pentagono pone con urgenza la questione della soggettività morale delle grandi imprese tecnologiche
April 30, 2026
Le big tech, la guerra e la coscienza dell'ingegnere
/Foto Icp
La lettera aperta che centinaia di dipendenti di Google hanno indirizzato all’amministratore delegato Sundar Pichai – chiedendo di rifiutare qualsiasi accordo che renda i sistemi di Intelligenza artificiale dell’azienda disponibili per i carichi di lavoro classificati del Pentagono – non è soltanto un episodio di protesta interna. È un documento denso, che pone con urgenza la questione della soggettività morale delle grandi imprese tecnologiche nell’epoca in cui l’Intelligenza artificiale è diventata, a tutti gli effetti, una risorsa strategica di potere. I firmatari scrivono che la loro prossimità a quella tecnologia genera una responsabilità: quella di segnalare e impedire gli usi più pericolosi e disumani dei sistemi che contribuiscono a costruire. È una formulazione che richiama, senza nominarla, la vecchia distinzione kantiana tra agire per conformità al dovere e agire per dovere: non basta non fare il male; occorre, quando se ne ha la capacità e la vicinanza, opporsi attivamente alla possibilità del male. La coscienza morale, qui, non è proprietà esclusiva dell’individuo ma si trasferisce – o almeno si rivendica che lo faccia – alla comunità professionale che condivide la competenza tecnica su ciò che è in gioco.
La notizia che Google stia negoziando con il Dipartimento della Difesa statunitense per il dispiegamento dell’Intelligenza artificiale in contesti classificati si inscrive in un cambiamento di paradigma che merita analisi attenta. Dopo anni in cui le grandi piattaforme tecnologiche si sono auto-rappresentate come infrastrutture neutrali – spazi di scambio e connessione, non attori politici – la corsa all’armamento dell’Intelligenza artificiale ha dissolto quella finzione. OpenAI ha già siglato un accordo con il Pentagono, il quale si è impegnato a non utilizzare quella tecnologia per la sorveglianza domestica di massa o per il controllo diretto di sistemi d’arma autonomi. Si tratta di una formulazione che, proprio nella sua vaghezza, rivela quanto il perimetro etico resti contestato e quanto i confini tra uso legittimo e uso inammissibile siano ancora privi di una grammatica giuridica condivisa.
È qui che il caso Google acquista il suo valore paradigmatico per la teoria della responsabilità sociale d’impresa. Per decenni, la corporate responsibility si è misurata su assi relativamente codificati: il rispetto dei diritti dei lavoratori, la sostenibilità ambientale, la governance trasparente, la correttezza nei confronti degli azionisti e delle comunità locali. Il rapporto con il potere militare e con le operazioni classificate costituisce invece una frontiera inedita, per la quale non esistono ancora framework normativi maturi né pratiche consolidate di rendicontazione. Quando un’impresa privata stipula un accordo per fornire capacità cognitive artificiali a un apparato di sicurezza nazionale che opera, per definizione, al di là del controllo pubblico si produce una forma di delega che eccede le categorie tradizionali della governance aziendale.
I dipendenti di Google lo hanno intuito e lo hanno scritto con chiarezza: rendere disponibili i sistemi di Intelligenza artificiale per usi militari classificati significa cedere il controllo sugli esiti finali di quella tecnologia a un attore – lo Stato nella sua dimensione securitaria – che non risponde alle stesse logiche di trasparenza e accountability alle quali l’impresa è soggetta, almeno in linea di principio, nei confronti del pubblico. In questo senso, la lettera non è soltanto un atto di resistenza interna: è un tentativo di ridefinire dall’interno i confini della responsabilità aziendale, affermando che essa non si esaurisce nei confronti degli azionisti o dei clienti ma si estende alla qualità degli usi che la tecnologia prodotta rende possibili nel mondo.
La questione delle armi autonome letali e della sorveglianza di massa, esplicitamente citate nella lettera, non è accessoria ma strutturale. L’Intelligenza artificiale applicata a sistemi d’arma autonomi pone il problema di ciò che Hannah Arendt avrebbe riconosciuto come una forma di banalizzazione del male: la delega del giudizio – incluso il giudizio sulla vita e sulla morte – a processi algoritmici privi di quella capacità riflessiva che sola può rispondere del male compiuto. Non è questione di fantascienza. È già una realtà operativa in diversi teatri di conflitto, e la domanda di chi debba rispondere delle conseguenze di una decisione letale automatizzata è tuttora senza risposta soddisfacente nel diritto internazionale.
Ciò che il caso Google illumina è dunque questo: nell’era dell’Intelligenza artificiale, la responsabilità sociale d’impresa non può più limitarsi a misurare l’impronta carbonica o il diversity index del Consiglio di amministrazione. Deve confrontarsi con domande di filosofia politica e di etica della guerra: chi autorizza, chi controlla, chi risponde. Le imprese che producono e gestiscono sistemi di intelligenza artificiale ad alte prestazioni si trovano, volenti o nolenti, in una posizione di co-responsabilità rispetto agli usi di quella potenza cognitiva. Ignorarlo sarebbe, oltre che un errore etico, un calcolo strategico miope: la lettera dei dipendenti di Google avverte che «una scelta sbagliata in questo momento causerebbe danni irreparabili alla reputazione, agli affari e al ruolo di Google nel mondo». È un argomento che parla al management nella sua lingua. Ma la posta in gioco è più alta di qualsiasi bilancio trimestrale.

© RIPRODUZIONE RISERVATA