
L’umanità corre. La destinazione si chiama AGI — Artificial General Intelligence — e la sua promessa è quella di implementare un sistema capace di svolgere qualsiasi compito cognitivo umano. In qualsiasi dominio. Con efficacia pari o superiore. Non uno strumento specializzato. Un interlocutore universale. I segnali di questa corsa sono ovunque. Tutti accelerano. Tutti dichiarano, con variazioni di tono ma non di sostanza, che l’AGI è imminente. Siamo entrati in quella fase in cui la traiettoria tecnologica sembra inarrestabile. Non perché lo sia davvero, ma perché nessuno dei protagonisti vuole o può permettersi di fermarsi. Abbiamo smesso di parlare di applicazioni per parlare di infrastruttura. Non «cosa possiamo fare con l’AI», ma «cosa dobbiamo costruire perché l’AI possa esistere a quella scala».
Questa corsa, però, porta con sé due limiti strutturali che la retorica dell’entusiasmo tende a rimuovere. Non sono limiti tecnici secondari, risolvibili con la prossima versione del modello. Sono limiti di sistema. Il primo è un limite economico: il modello di business dell’AI non esiste ancora. Il secondo è un limite epistemologico: il modello ermeneutico / semantico dell’AI attuale è insufficiente. I due limiti non sono disgiunti. Approfondiamoli separatamente.
Partiamo dal modello di business. Un data center da un gigawatt di potenza — la dimensione necessaria per addestrare e distribuire i modelli di frontiera — costa, tra costruzione e gestione, tra 35 e 60 miliardi di euro. Il fabbisogno stimato per l’AI a regime è di circa cento gigawatt. Ovvero cento data center. Un investimento complessivo nell’ordine dei tre-cinque trilioni di euro. Già pianificato. Già annunciato dalle grandi piattaforme tecnologiche globali. Tre-cinque trilioni. C’è addirittura chi sostieni (il CEO Di IBM) che ne serviranno 8 di trilioni. Più di quanto l’intera industria dei semiconduttori abbia mai guadagnato nella sua storia, dalla nascita del transistor fino ad oggi. Una percentuale significativa del PIL globale. L’investimento industriale più concentrato e più rapido che l’umanità abbia mai programmato. C’è però un dettaglio che la narrazione entusiastica tende a omettere: la vita utile di un data center è di circa cinque anni. Il ciclo tecnologico dell’hardware AI (GPU) è talmente rapido che quanto viene costruito oggi diventa obsoleto prima di aver completato la propria curva di ammortamento. Quei tre-cinque trilioni (la netto delle infrastrutture che hanno un ciclo di vita più lungo) andrebbero reinvestiti ogni cinque anni. E per essere economicamente sostenibili dovrebbero generare utili nell’ordine di 1 (o più) trilione l’anno. Ogni anno. Per cinque anni di seguito. Ma un obiettivo di tale portata è realizzabile soltanto attraverso un salto di produttività dell’intera economia globale. Allo stato attuale, invece, la gran parte degli utilizzi dell’AI è di natura retail: riassunti, immagini, intrattenimento, assistenti digitali. È il boom tecnologico a più alta intensità di capitale della storia. Che non ha ancora sviluppato, tuttavia, un modello di business adeguato a sostenerlo. L’era del quantum computer verrà in soccorso. Ma non basterà solo aumentare la capacità di calcolo. Serve anche altro. La conclusione logica è una sola: abbiamo bisogno di un’AI che consumi meno per produrre di più. Non più parametri. Non più gigawatt. Ma più intelligenza per watt. Ed è qui — precisamente qui — che il limite economico incontra il limite epistemologico.
Perché i modelli attuali consumano così tanto? Perché ragionano per singole informazioni correlate statisticamente — pixel di testo, frammenti di dato, schegge di probabilità — invece di ragionare per concetti. Invece di comprendere la struttura del reale, la simulano attraverso miliardi di associazioni. Serve un oceano di calcolo per produrre ciò che un bambino impara in un pomeriggio. È esattamente questo nodo che un ricercatore di primissimo piano ha deciso di aggredire frontalmente.
C’è un momento nella storia della scienza, infatti, in cui chi sa più di tutti (o ha intuito prima di tutti) interrompe il coro e dice: c’è dell’altro. Yann LeCun lo ha fatto a marzo del 2026, lasciando Meta dopo dodici anni per fondare AMI Labs — Advanced Machine Intelligence — raccogliendo oltre un miliardo di dollari (solo sulla base di un concept) nel più grande seed round mai registrato in Europa. LeCun non è un outsider. È uno dei tre padri fondatori del deep learning, Premio Turing 2018. Sa di cosa parla. Ed è proprio perché sa di cosa parla che si permette di dire che la direzione attualmente dominante dell’intelligenza artificiale è insufficiente.
La diagnosi è precisa: i grandi modelli linguistici sono straordinariamente capaci ma strutturalmente limitati. Un gatto che salta su un tavolo calcola traiettorie, anticipa conseguenze, comprende la gravità. Un grande modello linguistico sa descrivere il salto con eleganza impeccabile. Ma non sa eseguirlo. È costruito per fare altro.
I modelli linguistici, infatti, sono macchine probabilistiche: data una sequenza di token, calcolano la distribuzione di probabilità sul token successivo. Fanno questo con sofisticazione stupefacente. Ma ciò che producono non è comprensione: è correlazione statistica elevatissima. Ciò esclude le risposte rare (e per questo più preziose). Non comprendono. Calcolano. Una civiltà che affida progressivamente le proprie decisioni a sistemi che calcolano invece di comprendere non sta adottando (e sviluppando) lo strumento più efficiente. Sta sostituendo il giudizio con la plausibilità. Sta rinunciando alla saggezza per la performance. Sta scegliendo la superficialità rispetto alla profondità.
La proposta di LeCun — l’architettura JEPA, Joint Embedding Predictive Architecture — non nega i modelli linguistici: li supera. Il sistema apprende strutture invece di sequenze: osservando video, dati spaziali, esperienze fisiche, costruisce una rappresentazione interna del mondo e ragiona su quella rappresentazione concettuale. Non pixel di informazione correlati: ontologie. La differenza non è di grado. È di natura. Ed è anche una risposta parziale al primo problema: un’AI che ragiona per concetti è strutturalmente più sobria e sostenibile di un’AI che simula la comprensione attraverso miliardi di correlazioni.
L’orizzonte di LeCun, tuttavia, si ferma al mondo fisico. È un progresso. Ma non è ancora abbastanza. C’è dell’altro, vorremmo dire anche noi. Cosa? Prima di descrivere ciò che manca, occorre smascherare un equivoco che rischia di diventare il più costoso della storia tecnologica contemporanea. Molti sistemi oggi sul mercato si presentano come “etici”. Hanno policy di utilizzo, guardrail, filtri di contenuto. Si dichiarano allineati ai valori umani. Eppure, queste AI non ragionano eticamente. Si limitano — banalizzando la complessità tecnica sottostante — a irrigidire i propri sistemi di controllo.
La differenza è abissale. Un guardrail è un vincolo esterno: impedisce un comportamento senza comprenderne le ragioni. È la differenza tra un uomo che non ruba perché teme la prigione e un uomo che non ruba perché ha interiorizzato il valore della giustizia. Il primo è condizionato. Il secondo è virtuoso. Nessuna AI attuale è virtuosa: è condizionata. I suoi “valori” sono vincoli imposti dall’esterno attraverso RLHF generico, filtri post-hoc, regole di contenuto. Non emergono da un ragionamento etico strutturale: sono protocolli di contenimento. L’etica, così ridotta, non è etica. È compliance.
Abbiamo, dunque, bisogno – è questa la risposta – di una AI strutturalmente etica. Un’AI addestrata su dataset sapienziali — filosofici, morali, teologici, spirituali — che non elabora pixel di informazione correlati statisticamente ma costruisce ontologie, ragiona per concetti, comprende strutture di significato. Un’architettura così concepita è intrinsecamente (e realmente) più sobria e sostenibile. Produce più intelligenza per watt perché non deve simulare la comprensione attraverso miliardi di associazioni: la possiede strutturalmente. Un’AI che ragiona secondo principi morali strutturati non genera percorsi computazionali inutili: sa riconoscere quando una domanda è mal posta, quando una risposta non è necessaria, quando il silenzio vale più di mille token. Il ragionamento etico è intrinsecamente orientato — sa dove vuole arrivare — e questa direzionalità riduce il rumore computazionale. LeCun guadagna efficienza eliminando la correlazione statistica cieca. L’AI sapienziale aggiunge un’ulteriore efficienza: il ragionamento etico è per natura essenziale, tende al necessario e scarta il superfluo.
Su questa prospettiva – che risponde (quanto efficacemente sarà da vedersi) ad entrambi i limiti evidenziati in premessa – è da anni impegnato anche l’Harmonic Innovation Ecosystem. Sviluppando ricerca teorico-pratica d’avanguardia sul rapporto tra tecnologia, etica e bene comune. Implementando piattaforme e modelli fondativi sulla base di dataset proprietari (o utilizzabili in via esclusiva e/o preferenziale) già disponibili. Costruendo un allineamento valoriale non post-hoc ma strutturale, incorporato nell’architettura. Con l’obiettivo di definire un common sense ortogonale al common sense generalista. Un punto di vista (preferenziale) sulla realtà. È questa la novità. Anche in questo caso (come nel caso di LeCun) si ragiona per concetti ed ontologie e non per pixel di informazioni correlati statisticamente. Ma tale approccio è applicato allo spazio morale prima ancora che a quello del reale. E verrà, inoltre, rafforzato da un instruction tuning di secondo livello assicurato da una selezionata comunità internazionale di esperti in etica, bioetica, filosofia, teologia, scienze cognitive, diritto, ecologia. Non il mercato, dunque. Ma la civiltà. Ed il pensiero e lo spirito che l’hanno generata e la sorreggono. Il rapporto con l’umano che ne deriva, non sarebbe, così, di sostituzione ma di amplificazione. Una maieutica algoritmica, si potrebbe dire. Non una risposta al posto di chi decide, ma la domanda posta più in profondità. Nella giusta profondità.
Una AI Fondativa Sovrana, dunque. Sapienziale (e non sapiente, si badi bene!). La prima, forse, davvero degna di questo nome. Non è un sogno. È una opzione concreta. Un cantiere aperto. E la sua sovranità sarebbe europea: radicata nell’umanesimo mediterraneo, nel pensiero cristiano, nella filosofia classica, nel diritto naturale.
L’Armonauta abita, da molto tempo, quindi, la breccia aperta da LeCun. Il problema dell’intelligenza artificiale non è tecnico ma antropologico. La vera libertà del pensiero non si misura in nanometri di silicio né in GPU-hours. Si misura nella capacità di discernere: non soltanto il vero dal falso e il particolare dall’universale, ma il bene dal male, il degno dall’indegno. I greci la chiamavano phronesis. Tommaso d’Aquino la poneva al cuore della prudenza. Nessuno di loro immaginava un algoritmo. Tutti descrivevano qualcosa che nessun algoritmo, da solo, può generare. Ma che un algoritmo orientato dall’umano può, per la prima volta, aiutare a esercitare. La ricerca della Verità. L’unica che illumina. L’unica che rende liberi. L’unica che redime. L’unica che salva.
L’intelligenza che manca non manca per difetto di potenza computazionale. Manca per difetto di intenzione. Perché nessuno, finora, aveva osato chiedere all’intelligenza artificiale di orientarsi verso il bene come fine. Non come variabile da ottimizzare. Non come vincolo da rispettare. Bensì come orizzonte costitutivo, incorporato nell’architettura prima ancora che nel codice. Per essere un “saggio compagno di viaggio”.
Qualcuno lo sta chiedendo.
Qualcuno sta già provando a farlo.
Coming soon.
© RIPRODUZIONE RISERVATA






