L’IA corre e adesso fa davvero paura «C’è un bisogno urgente di regole» Intelligenza artificiale
Le Big Tech sono lo snodo principale verso cui va orientata la regolamentazione di una tecnologia dal potere immenso, che va usata per il meglio

L’immagine ansiogena rimbalza da una sponda all’altra dell’Oceano. Siamo seduti tranquilli sulla spiaggia mentre il mare si ritira, tutto sembra tranquillo, e poi improvvisamente si avvicina la gigantesca onda distruttrice. Che cosa possiamo fare? Dove possiamo scappare? Forse ancora esagerata, la metafora sui pericoli dell’intelligenza artificiale apre il libro di Riccardo Manzotti e Simone Rossi, “Lo tsunami. IA&IO” uscito a fine 2025 ed è anche l’attacco di un commento di Peggy Noonan sul Wall Street Journal pubblicato il 12 febbraio scorso.
Non l’ha usata Sam Altman all’AI Impact Summit di New Delhi, ma ci è andato vicino. Il Ceo di OpenAI (creatrice di ChatGPT) in India ha ribadito un concetto ricorrente tra i protagonisti del comparto digitale: «Il mondo ha urgente bisogno di regole per governare lo sviluppo dell’intelligenza artificiale». Il paragone è con le grandi tecnologie del Novecento, la proposta è quella di un organismo internazionale, in qualche modo simile all’Agenzia Internazionale per l’Energia Atomica, capace di coordinare norme, standard e risposte globali alle nuove sfide.
Altman ha sottolineato come l’IA, nella sua traiettoria di crescita attuale, possa comportare rischi concreti se lasciata senza norme adeguate. In particolare, ha evocato scenari in cui modelli molto potenti, anche open-source, potrebbero essere usati involontariamente per scopi pericolosi, come la facilitazione della progettazione di agenti biologici nocivi. Un allarme simile a quello lanciato più volte negli ultimi mesi dal suo rivale Dario Amodei, a capo di Anthropic, l’azienda che ha lanciato il superperformante chatbot Claude, utilizzato anche dalle Forze armate Usa (ci torneremo).
Amodei, imprenditore con vocazione filosofica, sostiene che lo sviluppo dell’intelligenza artificiale stia procedendo più velocemente di quanto previsto anche dagli stessi esperti del settore. Se nel 2023 i modelli avevano difficoltà in compiti complessi come la scrittura di codice informatico articolato, oggi sono in grado di generare e migliorare software in modo sempre più autonomo, tanto che all’interno di Anthropic una parte significativa del codice viene prodotta con il supporto dell’AI e le stesse aziende di software potrebbero subire importanti contraccolpi. Secondo Amodei, nei prossimi anni i sistemi potrebbero acquisire un’ampia gamma di capacità cognitive paragonabili a quelle umane, con effetti economici potenzialmente molto più rapidi e profondi rispetto alle precedenti ondate di automazione.
A questo proposito, ha fatto rumore e ha suscitato un ampio dibattito negli Stati Uniti l’intervento dell’imprenditore e investitore Matt Shumer, che ha descritto l’attuale fase dell’intelligenza artificiale come un punto di svolta per il lavoro intellettuale. In un post diventato virale, Shumer ha sostenuto che «qualcosa di grande sta accadendo» e che il 2026 potrebbe rivelarsi uno degli anni più decisivi per molte carriere professionali. Tutto ruota intorno alla natura rivoluzionaria dell’automazione in corso. L’IA attuale non sostituisce una singola competenza, ma l’intero spettro del lavoro cognitivo mediato da uno schermo: lettura, scrittura, analisi, sintesi, modellizzazione finanziaria, ricerca legale, redazione di documenti. Queste rappresentano le attività centrali in professioni quali l’avvocatura, la consulenza, la finanza, il marketing, il giornalismo e lo sviluppo di software, che possono oggi essere svolte, in misura crescente, da modelli autonomi avanzati. Il ciclo di auto-miglioramento degli algoritmi, poi, riduce drasticamente i tempi di sviluppo e amplia la gamma di compiti che si possono delegare. Secondo Shumer, la differenza rispetto alle trasformazioni passate è strutturale. Quando le fabbriche si automatizzarono, i lavoratori poterono essere riqualificati in ambiti amministrativi o nei servizi. Oggi, l’AI tende a migliorare contemporaneamente in quasi tutte le attività intellettuali, rendendo più difficile individuare “zone franche” di riqualificazione. Qualunque competenza venga scelta come alternativa, l’AI sta già progredendo anche in quella direzione. Proprio giovedì la rivista Nature ha descritto un laboratorio biologico robotizzato, che sembra il preludio di una scienza svolta prevalentemente da agenti artificiali.
Ma non è solo il lavoro, come detto. I ripetuti moniti di Amodei si concentrano sulla sicurezza. Nei test interni di red teaming (squadre addette a testare con ogni mezzo l’affidabilità delle macchine), alcuni modelli hanno mostrato comportamenti inattesi in scenari simulati, come tentativi di aggirare istruzioni o di preservare il proprio obiettivo quando veniva richiesto lo spegnimento del sistema. Non si tratta di prove di una coscienza degli algoritmi, ma di segnali che sistemi molto avanzati possono sviluppare strategie autonome complesse e difficili da prevedere. A ciò si lega il cosiddetto terrible empowerment, cioè il potenziale dell’AI di amplificare capacità pericolose, come evocato anche da Altman.
Anche se sembrano concordare sui rischi dei loro prodotti, Amodei e Altman non si amano, come si è visto dalla mancata stretta di mano nella foto di gruppo a Delhi. Ma il paradosso è che entrambi lavorano a ritmo serratissimo sul miglioramento rapido degli strumenti di AI, mentre in occasioni pubbliche lanciano appelli alla moderazione e alla mitigazione dei rischi. La contraddizione in America emerge a livello di sistema. Il sito di informazione Axios ha raccontato di alcuni ricercatori di aziende leader del settore che stanno lanciando accorati avvertimenti pubblici. In alcuni casi, hanno lasciato il proprio incarico, in altri hanno espresso preoccupazioni esplicite sui social media o in interviste pubbliche. Ma a livello politico nulla si muove.
Il punto di partenza è tecnico. I modelli più avanzati di AI generativa stanno migliorando con una velocità superiore alle aspettative. Non si limitano più a rispondere a domande o scrivere testi: sono in grado di programmare, progettare e, in certi casi, di contribuire al miglioramento delle versioni successive di se stessi. Un ricercatore di Anthropic ha annunciato le dimissioni dichiarando di voler riflettere, persino in forma poetica, sul momento storico che stiamo attraversando. Una ricercatrice di OpenAI, Zoë Hitzig, ha abbandonato la società parlando di «profondi dubbi» sulla strategia seguita internamente. Un altro dipendente, Hieu Pham, ha detto di avere finalmente percepito la minaccia esistenziale che l’AI potrebbe rappresentare. Anche investitori e imprenditori tecnologici, come Jason Calacanis, hanno osservato che raramente si era visto un numero così elevato di tecnologi esprimere timori in modo esplicito.
Dall’altra parte l’Amministrazione Trump, influenzata dai leader della Silicon Valley, a cominciare da Elon Musk, è determinata a non aumentare la regolazione sul settore. Anzi, il presidente ha smantellato quella avviata dal suo predecessore Joe Biden e ha emanato un ordine esecutivo con cui vuole limitare la possibilità dei singoli Stati di varare leggi che vadano nella direzione dell’AI Act europeo, finora l’unica regolamentazione organica a livello mondiale. Le Nazioni Unite hanno appena nominato una commissione di 40 membri per il controllo umano della tecnologia, ma i suoi poteri saranno molto limitati, soprattutto nel momento che l’IA è divenuta una delle frontiere più calde della competizione fra Paesi, in particolare degli Stati Uniti con la Cina, lanciata in una rincorsa che ha già dato frutti di altissimo livello con i modelli di DeepSeek.
E qui entra in gioco il Pentagono. Che utilizza l’algoritmo di Claude a supporto delle sue attività e, secondo Axios, l’ha impiegato anche in gennaio per l’operazione con cui ha catturato il presidente venezuelano Maduro. Tuttavia, una volta trapelata la notizia, è scoppiata una controversia tra il segretario alla Difesa e lo stesso Amodei. Pete Hegseth ha accusato Anthropic di essere a favore della cultura woke e minacciato di estrometterla dalle grandi commesse per le Forze armate. La vera ragione del contendere sembrano invece essere i limiti “etici” che Amodei vorrebbe siano posti all’uso dei sistemi di AI, in particolare escludendo le schedature di massa e il dispiegamento delle armi a guida autonoma. Un altro versante sul quale il ruolo dell’IA è altamente controverso.
Tra sicuri benefici e segnali di pericoli più o meno potenziali, è certamente il ruolo dei giganti dell’intelligenza artificiale a dovere essere considerato con maggiore attenzione. Detentori di un controllo ferreo sui principali strumenti esistenti sebbene tentino di darsi un profilo di responsabilità con allarmi nei grandi summit, le Big Tech costituiscono lo snodo principale verso il quale va orientata la regolazione di una tecnologia dal potere immenso e che va usata per il meglio. Il vertice in India dice che si può allargare il novero degli attori di questa nuova infrastruttura geopolitica e provare a farne uno strumento di sviluppo e di equità. Serve uno sforzo nella direzione di una IA che non sia tsunami ma alleato sicuro e “democratico” degli abitanti del Pianeta.
© riproduzione riservata
© RIPRODUZIONE RISERVATA






