L’epistemologia del voto ci aiuta a comprendere l’intelligenza artificiale
Quando una maggioranza decide mediante un voto, sta contando le opinioni dei votanti oppure si sta avvicinando alla decisione migliore?

Oggi alle la Sala del Consiglio Comunale di Cascina “Enzo Bertini” ospita l’incontro pubblico “Siamo sMEMOR(I)Ati? 2.0”, promosso dalla sezione Anpi di Navacchio insieme alla sezione Anpi di Cascina e al Comune di Cascina. L’iniziativa sarà dedicata a una riflessione sul rapporto tra democrazia, informazione e nuove tecnologie, nel segno degli 80 anni di voto libero e universale. Il programma prevede diversi interventi. Dopo i saluti del sindaco Michelangelo Betti, è prevista una breve lettura dal testo “Campagna elettorale a Pompei” della scrittrice Daniela Morelli. Tra i momenti centrali dell’incontro l’intervento del professor Vincenzo Ambriola, etico informatico, dedicato a “Epistemologia del voto e intelligenza artificiale”, un contributo - che anticipiamo qui - pensato per riflettere su come le tecnologie digitali e gli strumenti di intelligenza artificiale influenzino il modo in cui si formano opinioni, conoscenza e partecipazione politica. Il dibattito affronterà anche il tema del rapporto tra algoritmi e politica con Andrea Borghini, direttore del Dipartimento di Scienze Politiche dell’Università di Pisa, e quello tra IA e giornalismo con la giornalista Silvia Andreozzi. A chiudere l’incontro sarà Bruno Possenti, presidente provinciale Anpi Pisa, con un intervento sull’articolo 48 della Costituzione italiana, dedicato al diritto e al dovere di voto.
Molto probabilmente la parola del 2026 sarà “epistemologia”. È un termine coniato nel 1854 dal filosofo scozzese J. F. Ferrier per designare la disciplina che studia i fondamenti, la validità e i limiti della conoscenza. Etimologicamente deriva dal greco epistéme (conoscenza certa, scienza) e logos (studio). Come una matrioska, anche epistéme è una parola composta che deriva dal greco epi (su) e histamai (stabilire, stai). L’epistemologia è tornata alla ribalta perché molto spesso viene utilizzata per spiegare l’intelligenza artificiale e, in particolare, il comportamento delle macchine intelligenti e parlanti. Walter Quattrociocchi, professore di Informatica presso l’Università di Roma La Sapienza, ha coniato un neologismo, “epistemia”, per descrivere l’illusione di conoscenza generata dall’intelligenza artificiale, dove testi verosimili e ben argomentati, ma privi di reale fondamento empirico, vengono confusi con la vera conoscenza.
In un settore specifico di applicazione, l’epistemologia del voto si chiede “se e in che senso” il voto democratico possa essere considerato uno strumento di espressione delle preferenze degli elettori oppure un meccanismo di produzione di conoscenza collettiva. Nel primo caso è rilevante solo il risultato numerico del voto, utilizzato per eleggere i rappresentanti o per stabilire la risposta a un quesito referendario. Nel secondo, viene enfatizzato il percorso seguito dalla collettività per votare in maniera consapevole. Poiché la democrazia è giustificata dall’uguaglianza politica e dalla legittimità procedurale, l’approccio epistemico aggiunge un’ulteriore domanda: quando una maggioranza decide mediante un voto, sta contando le opinioni dei votanti oppure si sta avvicinando alla decisione migliore? In altre parole, la democrazia può essere affidabile dal punto di vista cognitivo?
Nel XVIII secolo, il marchese di Marquis de Condorcet formulò un teorema affascinante. Se ogni votante ha una probabilità anche solo leggermente superiore al 50% di scegliere l’opzione corretta e se la sua decisione è indipendente da quella degli altri, allora all’aumentare del numero dei votanti la probabilità che la maggioranza scelga correttamente tende alla certezza. Ciò significa che molti giudizi imperfetti, purché indipendenti, possono produrre una decisione affidabile e corretta e che la democrazia non è solo equa ma è anche epistemicamente intelligente. Tuttavia, il teorema si basa su due ipotesi molto forti e difficili da attuarsi: l’esistenza e la conoscibilità di una decisione corretta e l’indipendenza di giudizio, che presuppone una forte autonomia individuale non guidata da ideologie ma in linea e nel rispetto dei valori democratici.
Una collettività non è un “individuo ingrandito” ma un insieme di persone, ognuna con le proprie idee. Anche quando le persone hanno preferenze coerenti e ben ragionate, il modo in cui queste sono combinate può generare risultati instabili. Negli anni Cinquanta, l’economista Kenneth Arrow dimostrò che non esiste una regola di voto capace di trasformare preferenze individuali razionali in una decisione collettiva altrettanto coerente, rispettando allo stesso tempo criteri minimi di equità. Le conseguenze di questo risultato teorico sono sorprendenti: anche se ogni elettore ragiona correttamente, il risultato aggregato può essere incoerente, non per colpa di qualcuno, ma per la struttura matematica dell’aggregazione stessa. La razionalità collettiva non è garantita dalla razionalità individuale perché sono necessarie tre ulteriori condizioni, individuate dall’epistemologia del voto: competenza minima dei votanti, indipendenza dei giudizi, qualità del dibattito pubblico.
L’intelligenza artificiale generativa è una tecnologia capace di produrre testi, immagini e video in modo autonomo e su scala potenzialmente illimitata. A differenza dei media tradizionali, non solo trasmette informazioni ma le crea e le organizza, diventando una nuova infrastruttura cognitiva che ridefinisce il modo in cui le convinzioni politiche prendono forma prima ancora che il voto sia espresso. Il suo impatto nel processo elettorale è molto forte. Nella fase delicata di formazione delle opinioni può aumentare la competenza media degli elettori riassumendo programmi elettorali complessi, confrontando proposte legislative, simulando gli effetti di politiche pubbliche, rendendo accessibili dati che altrimenti sarebbero opachi, riducendo le barriere informative. L’analisi di questo nuovo fenomeno è ancora agli albori, anche se molti elementi di giudizio sono già emersi.
Utilizzando l’intelligenza artificiale chiunque può produrre automaticamente e diffondere su larga scala contenuti persuasivi: articoli e commenti, video sintetici, immagini realistiche. I deepfake politici possono simulare dichiarazioni o comportamenti mai avvenuti, erodendo la fiducia nelle prove audiovisive. La correlazione dell’errore sistemico, generato dalle piattaforme basate su questa tecnologia, fa cadere l’ipotesi che “molti insieme decidono meglio”, perché vengono meno indipendenza e diversità nell’espressione dei giudizi. Essendo un’infrastruttura cognitiva, l’intelligenza artificiale può essere usata per distorcere, non solo trasmettere, le credenze, addirittura le convinzioni politiche. Può generare contenuti fuorvianti con elevata qualità formale, creare narrazioni persuasive personalizzate, amplificare informazioni parziali fino a renderle dominanti. A differenza di quanto può apparire, il rischio più profondo non è la generazione e la diffusione di una singola notizia falsa, ma la sua convergenza sistematica. Quando milioni di persone formano le proprie opinioni con gli stessi strumenti tecnologici, gli errori non si compensano, si moltiplicano.
Ecco che l’intelligenza artificiale diventa un amplificatore epistemico che può avere una duplice finalità. Può essere uno strumento pubblico e trasparente che migliora la qualità delle informazioni, aumentandone l’affidabilità collettiva. Ma può anche accelerare la polarizzazione e la manipolazione, riducendo la competenza media degli elettori e aumentando la correlazione dei loro errori epistemici. Se, come sottinteso dal primo scenario, l’intelligenza artificiale ridefinisce le condizioni entro cui le opinioni politiche si formano, la domanda più urgente non è tecnica ma politica: chi controlla questa infrastruttura? La risposta è evidente:imprese private, con logiche di mercato, che non hanno alcun mandato democratico e sono totalmente prive di trasparenza algoritmica. Diventa urgente una riflessione nuova sulla trasparenza dei modelli linguistici usati in contesti politici, sulla responsabilità epistemica delle piattaforme, sull’alfabetizzazione civica nell’uso dell’intelligenza artificiale, sulle orme di governance condivisa dell’informazione elettorale.
La democrazia ha sempre dovuto regolare e normare gli strumenti di comunicazione, perché chi li controllava acquisiva un vantaggio strutturale nella formazione del consenso. La concentrazione del potere epistemico dell’intelligenza artificiale nelle mani di un numero ristretto di soggetti privati è avvenuta prima che le istituzioni democratiche se ne accorgessero. Aspettare che questi nuovi “attori” si autoregolino significa accettare che le condizioni del voto siano definite da chi non è stato eletto da “nessuno” e non risponde a “nessuno”. La domanda non è più se regolare, è se ne siamo ancora capaci.
© RIPRODUZIONE RISERVATA






