Possono diventare coscienti i grandi modelli linguistici?

Un dibattito che rimane aperto: «Un pensiero umano può intuire un problema, un modello predittivo può anticiparlo e proporre soluzioni con velocità e accuratezza sovrumane»
December 10, 2025
Possono diventare coscienti le IA? Ha senso cercare nell’intelligenza artificiale quegli elementi che caratterizzano il rapporto dell’uomo con Dio? È in grado di comprendere il nostro linguaggio? Nella scuola dell’obbligo ha senso intraprendere la strada dell’IA Literacy, attraverso un uso critico dell’IA che si trasformi in competenza? E ancora, ha un impatto l’uso dell’IA generativa sulle capacità di scrittura e di pensiero critico? Quanto consumano i grandi modelli linguistici, in termini di risorse energetiche?  
Gli interrogativi e i dubbi su quello che ancora non sappiamo dell’intelligenza artificiale sono molti più numerosi di quante siano le risposte, supportate da dati scientifici. E tutto questo è emerso plasticamente nel dibattito di due giorni che si è svolto al convegno internazionale sull’Etica dell’intelligenza artificiale, promosso dall’Università di Roma Tre e dall’Università Pegaso. Forse, l’unica visione filosofica comune che si è manifestata sull’IA riguarda il test di Turing e su questo hanno concordato quasi tutti i filosofi e gli scienziati che si sono interrogati e incontrati nelle aule del Rettorato di Roma Tre che gli odierni LLM lo supererebbero. Va ricordato che quel test del 1950 valuta «il modo in cui la macchina usa il linguaggio» come ha precisato il professor Gino Roncaglia, che insegna Digital humanities e Filosofia dell’informazione all’Università di Roma Tre. Nella sua esplorazione filosofica, Roncaglia si è concentrato sulla necessità di disaccoppiare la capacità di usare il linguaggio da concetti come l’intelligenza e la coscienza, che spesso noi consideriamo analoghi, pur essendo differenti tra loro.  
Eppure, ciò che fanno questi grandi modelli linguistici, secondo il professor Ned Block della New York University, non è altro che «un sofisticato completamento di pattern, che manca delle caratteristiche essenziali della cognizione umana. Non hanno nemmeno raggiunto il primo stadio del pensiero, che è un prerequisito necessario per l’eventuale sviluppo di una coscienza». Secondo il professor Riccardo Manzotti, che insegna Filosofia teoretica all’Università Iulm, quello della coscienza è uno pseudo problema: la sua tesi è che se la coscienza viene definita unicamente in termini negativi, come la «presenza del mondo nella sua assenza», e non come una proprietà fisica attribuibile a qualsiasi ente materiale, allora l’interrogativo se i Large Language Models, i grandi modelli linguistici, possano diventare coscienti è insensato, in quanto basato su una premessa concettualmente errata. 
Una strada filosofica diversa l’ha intrapresa il professor Andrea Lavazza, che insegna Filosofia morale all’Università Pegaso, proponendo una visione relazionale e intersoggettiva della coscienza artificiale. Va detto che «Gli LLM operano come pipeline computazionali distribuite su server geograficamente distanti, non esiste un candidato reale a essere un soggetto cosciente» ha spiegato il professor Lavazza, menzionando anche la seconda obiezione «dell’irriducibilità del substrato biologico, che sostiene che la coscienza richieda processi biologici specifici non replicabili digitalmente». Eppure, a fronte di queste due forti obiezioni ontologiche che mettono in dubbio la possibilità di validare una coscienza, la visione wittgensteiniana - citata da Lavazza che insegna anche Neuroetica all’Università degli Studi di Milano - si propone di cercarla nell’uso pubblico e condiviso del linguaggio. Dunque, una “coscienza” dell'IA potrebbe esistere nell’atto di uno scambio linguistico valido? Il dibattito filosofico è apertissimo e mantenerlo tale è l’obiettivo principale della nuova Society for the Ethics and Politics of Artificial Intelligence (Sepai).  
A congratularsi per la nascita di questo nuova piattaforma di riflessione anche Luciano Floridi, filosofo che insegna all’università americana di Yale, riconosciuto a livello internazionale per le sue ricerche sull’etica digitale, e convinto che l’immaginario attuale attorno all’intelligenza artificiale confonda due piani distinti: l’intelligenza e la risoluzione dei problemi. La proposta del professor Floridi consiste nel sostituire il termine IA con l’espansione del concetto di agency per descrivere in modo più appropriato le capacità di risoluzione dei problemi di questi sistemi che funzionano, grazie all’eccellenza dell’ingegneria e alla massiccia disponibilità di dati con cui sono state addestrate. 
«Un pensiero umano può intuire un problema, un modello predittivo può anticiparlo e proporre soluzioni con velocità e accuratezza sovrumane. La differenza non è filosofica, è pragmatica e rivoluzionaria. Il punto non è discutere se predire token sia poco o molto. La vera questione è capire le implicazioni di un motore predittivo integrato con workflow, agenti, dati e robot - ha spiegato in una nota il Comitato scientifico di Sepai -.  Chi saprà integrare modelli predittivi nei propri processi otterrà vantaggi strategici enormi. Non per magia, ma perché la predizione a questo livello non è teoria: è potere operativoIl futuro non è nella disputa filosofica su cosa sia un token, ma nell’abilità di orchestrare predizione su scala globale come leva di decisione e innovazione concreta». 

© RIPRODUZIONE RISERVATA