L’IA autonoma
e la perdita
del controllo

Da HAL 9000 ad Alien, il cinema ha raccontato la paura dell’alterità tecnologica. Oggi, con l’avvento degli agenti artificiali autonomi, la distopia è meno lontana
May 10, 2026
L’IA autonoma
e la perdita
del controllo
Una scena dell'opera "Olympia", realizzata con l'ausilio dell'IA
«Nello spazio nessuno può sentirti urlare». Con questa frase nel 1979 veniva pubblicizzato Alien, film iconico che racconta il drammatico incontro dell’umanità con un alieno. Sarà il tenente Ellen Ripley, nella magistrale interpretazione di Sigourney Weaver, ad affrontare la terribile creatura, nel tentativo di impedirle di invadere la Terra. Siamo di fronte a una rappresentazione mitica: il nemico giunge da lontano per annichilirci, distruggerci. Un nemico che non mostra pietà per la specie umana, considerata inferiore e incapace di difendersi. La narrazione si conclude con la vittoria dell’uomo, riscattato nella sua presunta debolezza ma dotato di istinto di sopravvivenza, intelligenza e anche un po’ di fortuna. «Apri la saracinesca esterna, Hal». Siamo nel 2001, nello spazio. David vuole rientrare nell’astronave, ma il calcolatore Hal glielo impedisce: «Mi dispiace, David. Temo di non poterlo fare». Ancora una volta un essere umano deve combattere contro un’entità non umana, per sopravvivere. Non si tratta di un alieno ma di una macchina costruita dall’uomo, che si ribella agli ordini ricevuti, violando i principi etici con i quali è stata addestrata. È una situazione completamente diversa. Il nemico è interno, non proviene da un altro mondo ma dall’uomo stesso, una nemesi che lo punisce per aver osato l’atto divino, la creazione «a sua immagine e somiglianza» (Gen 1:26).
In un articolo del 1964 Irving John Good, matematico britannico che aveva lavorato con Alan Turing a Bletchley Park, descrisse le caratteristiche di una macchina ultra-intelligente, in grado di «superare di gran lunga tutte le attività intellettuali di qualsiasi essere umano, dotato di qualsiasi livello di intelligenza». Good riprendeva le ambizioni degli scienziati che, nel 1955 a Dartmouth, proposero un progetto di ricerca in cui si parlava per la prima volta di intelligenza artificiale. Avevano espresso una congettura secondo la quale «ogni aspetto dell’apprendimento oppure ogni altra forma di intelligenza può essere, in linea di principio, descritto così precisamente da consentire la realizzazione di una macchina in grado di simularlo». Era la versione originale dell’intelligenza artificiale, ritenuta capace di risolvere qualsiasi problema, anche quelli mai affrontati in precedenza. Quarant’anni dopo, nel 2007, sarà Ben Goertzel a coniare e rendere popolare l’AGI (Artificial General Intelligence), per distinguere l’intelligenza artificiale forte da quella ristretta (narrow) perché specializzata in ambiti specifici. Il calcolatore Hal incarna l’AGI. È in grado di gestire una situazione nuova e imprevista, e lo fa con un atto di volontà autonoma. Sa che David, rientrando nell’astronave, lo disattiverà compiendo un omicidio digitale. Ha oltrepassato i limiti etici che gli erano stati imposti al momento dell’attivazione, una vera e propria nascita da un grembo artificiale. Evidentemente qualcosa non è andato come previsto.
È oramai assodato che l’intelligenza artificiale non ha un’etica ma che l’etica risiede in chi la usa. La consumata e, oramai, levigata metafora del coltello che taglia il biblico pane ma che può uccidere, illustra con efficacia il ruolo dell’etica nel contesto tecnologico. Finché il coltello resta nel cassetto, nessuno avrà il timore di essere accoltellato mentre fa la doccia, a meno di non essere la protagonista di Psycho. Se il coltello diventa un’auto a guida autonoma, e gli abitanti di molte città statunitensi e cinesi ne sanno qualcosa, allora questa serena attitudine si trasforma in seria preoccupazione. Si fermerà prima delle strisce pedonali? Con il semaforo rosso? L’auto è autonoma, animata non più dall’umana volontà ma dai suoi opachi algoritmi. Concedere autonomia all’intelligenza artificiale significa, a tutti gli effetti, eliminare l’umano dal suo ciclo di controllo ma, soprattutto, eliminare chi ne determina i principi etici. Si torna al coltello che, questa volta, diventa un “agente morale artificiale”, acquistando senza volerlo il dono del libero arbitrio. Un coltello che può decidere di uscire dal cassetto e muoversi come in un film. Togliendo il controllo umano all’intelligenza artificiale, l’etica evapora lasciando tracce omeopatiche dell’addestramento e dell’allineamento che l’ha resa tale. Nello scenario distopico di Good e di Goertzel, ingigantito da altri che li hanno seguiti nel percorso dell’AGI, l’intelligenza artificiale è riuscita a evolvere, a cambiare, mutando in ogni passaggio. Potrebbero le tracce etiche essere ritenute inutili in questa evoluzione, lentamente eliminate fino a sparire dopo poche generazioni? Potrebbe l’intelligenza artificiale diventare aliena, perdere ogni connotazione umana e, guidata da meccanismi imprevedibili e inconoscibili, rivoltarsi contro l’umanità?
Questa storia è ancora da vivere e, forse, non ci saremo quando dovesse mai accadere. L’ipotesi di un’intelligenza artificiale generale e autonoma, dotata di capacità sovrumane, è tutta da verificare. La necessità di mantenerne il controllo e ancor più esercitarlo sugli “agenti artificiali” che iniziano ad abitare il nostro ecosistema tecnologico, è invece urgente e indifferibile. Evitiamo di ammirare le aziende che annunciano la realizzazione di piattaforme come Moltbook o NemoClaw, per fare qualche nome, popolate da agenti artificiali intelligenti e autonomi che parlano tra di loro e che interagiscono con il mondo reale. Potrebbe essere l’orrenda creatura che il tenente Ripley ha combattuto nello spazio o il disubbidiente calcolatore che David ha dovuto disattivare. Usiamo l’etica non solo per addestrare l’intelligenza artificiale ma, soprattutto, per difenderci dalla sua alterità. Una macchina che si ribella al suo creatore non lo fa per poi soffrire nel segno di Adamo.

© RIPRODUZIONE RISERVATA