L'accordo tra il Pentagono e OpenAI: si dimette una manager dell'azienda
«Serviva più riflessione è questione di principio», ha spiegato Caitlin Kalinowski, la responsabile del dipartimento di robotica di OpenAI, per giustificare la sua scelta

«Ho rassegnato le dimissioni da OpenaAI», semplici quanto dirompenti, sono queste le parole con le quali Caitlin Kalinowski, la responsabile del dipartimento di robotica di OpenAI, ha annunciato su X e LinkedIn il suo passo indietro dalla società creatrice di ChatGPT. «Non è stata una decisione facile. L'IA ha un ruolo importante nella sicurezza nazionale – ha specificato –. Ma la sorveglianza degli americani senza supervisione giudiziaria e l'autonomia letale senza autorizzazione umana sono confini che meritavano più riflessione di quanta ne abbiano ricevuta». La questione etica sollevata da Kalinowski, che come ha puntualizzato riguarda i principi e non le persone dell'azienda, è l'ultimo episodio della disputa tra le aziende di IA, e al loro interno, sull'uso della tecnologia da parte dell'esercito americano.
Tutto è iniziato quando il governo americano ha chiesto all’azienda Anthropic di mettere a disposizione del Pentagono l'intelligenza artificiale Claude anche per guidare armi autonome o addestrare programmi di sorveglianza dei cittadini. Il fondatore e amministratore delegato di Anthropic, Dario Amodei, ha detto no, sollevando per primo le questioni etiche, incassando all'inizio l'apparente solidarietà del competitor a capo di OpenAI. Va ricordato che Amodei, insieme ad altri suoi collaboratori, aveva lasciato OpenAI proprio per creare un’AI più etica. Il suo rifiuto di queste settimane al Pentagono rientra dunque in questa visione. «Credo profondamente nell’importanza esistenziale dell’uso dell’intelligenza artificiale per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici», ha motivato. Le trattative tra Pentagono e Anthropic sono naufragate in particolare dopo che l'azienda ha posto dubbi sull'uso dell'IA per la sorveglianza interna e sull'impiego nelle armi autonome, dato che Claude era stato usato per il raid in Venezuela del 3 gennaio scorso, dove ci sono state anche vittime civili. Anthropic, appunto, non era d'accordo nel lasciare ai robot la guida degli armamenti e non voleva che il Pentagono usasse gli algoritmi di Claude per spiare gli americani. Il capo del Pentagono, Pete Hegseth, ha reagito indicando Anthropic come un «rischio per la catena di approvvigionamento» e il presidente Donald Trump aveva annunciato la messa al bando di Anthropic, vietandone l'uso a tutte le agenzie federali.
È a questo punto che è entrata in gioco OpenAI e il suo Ceo, Sam Altman, che ha firmato un contratto con il Pentagono, acconsentendo all’utilizzo dei suoi servizi per qualsiasi scopo legale con alcune generiche limitazioni. Nonostante Altman abbia provato a giustificare la decisione spiegando che i sistemi di intelligenza artificiale non dovrebbero essere utilizzati intenzionalmente per la sorveglianza interna di cittadini statunitensi e che questi non saranno usati dalle agenzie di intelligence del Dipartimento, come ad esempio la National Security Agency, la condanna nei confronti dell'azienda è arrivata da più fronti: un malcontento che si è tradotto nel boom di disinstallazioni dell'app ChatGPT dai dispositivi e di download di Claude. In realtà, infatti, non ci sono vere garanzie sul fatto che i suoi sistemi non verranno usati per la sorveglianza di massa. Le dimissioni di Kalinowski arrivate negli ultimi giorni, dunque, sembrano suggerire che gli utenti avessero ragione a non fidarsi e che Altman abbia consesso al Dipartimento molto più di quanto avesse ammesso all'inizio.
© RIPRODUZIONE RISERVATA






