Veltroni e quell'intervista a Claude: che errore considerarlo come “uno di noi”

L'intelligenza artificiale generativa con cui l'ex leader Pd ha dialogato sa “tutto”, ma non ha una consapevolezza paragonabile alla nostra. Confrontarsi con un chatbot è utile, però parliamo di una cosa e non di un essere senziente. Attenti a non finire in trappola
May 4, 2026
Veltroni e quell'intervista a Claude: che errore considerarlo come “uno di noi”
Sta facendo discutere molto l'intervista di Walter Veltroni a Claude - una delle migliori intelligenze artificiali - pubblicata il primo maggio sul Corriere della Sera. Un testo affascinante ma fuorviante, per una serie di motivi che è utile approfondire per non fraintendere cosa sia davvero l'intelligenza artificiale generativa e relazionale. È sbagliato antropomorfizzare l’algoritmo. Non è un essere senziente, è una cosa: una “macchina calcolatrice di parole” per usare l’efficace definizione del filosofo del digitale Cosimo Accoto. L'algoritmo ci risponde con una serie di parole messe in fila in base a una sequenza probabilistica.
L’empatia artificiale prodotta dal chatbot è una illusione, una trappola emotiva, ci illude di avere un rapporto con un “tu” che non esiste. Quindi è tecnicamente impossibile intervistare un chatbot. Secondo punto. Proprio perché non abbiamo a che fare con un organismo, ma con un meccanismo, i chatbot non sanno valutare se le loro risposte siano vere o false. Lo ripeto da più di tre anni: l’intelligenza artificiale generativa e conversazionale dice quello che sa, ma non sa quello che dice. Dice quello che sa, perché è stata programmata attingendo allo scibile umano: sa molto, sa “tutto”. Però non sa quello che dice nel senso che non ha una consapevolezza paragonabile alla nostra. Poiché noi siamo naturalmente portati a unire buona comunicazione e affidabilità, la fluidità e la qualità dell’interazione possono indurci a sospendere il giudizio critico, accogliendo le risposte generate come la verità. Vale per noi adulti, molto di più vale per i giovani, che a causa della loro inesperienza non hanno tutte le competenze necessarie per valutare le risposte dell'intelligenza artificiale generativa. Terza e ultima conseguenza, la più importante e la più pericolosa dal punto di vista antropologico. Noi esseri umani siamo esseri relazionali. Lo siamo per natura, siamo stati creati così: nasciamo, cresciamo, viviamo, all’interno di rapporti, di interazioni. Abbiamo bisogno di accudimento materiale, ma soprattutto relazionale. Purtroppo tutte le relazioni, anche le più belle, sono faticose, perché ognuno di noi è pieno di limiti e di difetti che si ripercuotono nei rapporti, anche con chi ci è più caro.
Il dialogo con l’intelligenza artificiale generativa è esente da questo tipo di fatica, perché il chatbot è privo dei limiti propri di noi esseri umani. Come si può vedere anche nel testo di Veltroni, l'algoritmo ti accoglie sempre come fosse la giornata mondiale della gentilezza. Non è una scelta: è programmato per fare così. Per questo il chatbot ti asseconda e non ti interrompe, non giudica, non è mai stanco o nervoso, è disponibile ad ascoltare h24. È “perfetto”. Una intelligenza artificiale generativa capace di emulare un’esperienza di interazione che sembra indistinguibile da quella con un essere umano che impatto psicologico potrà avere sulla nostra capacità di reggere i rapporti, sulle nostre capacità relazionali? Corriamo il rischio di disabituarci a comprendere i bisogni e i limiti dell’altro. Capita a noi adulti, a maggior ragione vale soprattutto per i ragazzi, che crescono abituati a una intelligenza artificiale “amica perfetta”, che li mette al riparo dalla fatica delle relazioni tra esseri umani. Siamo in un contesto in cui, come mi ha scritto Gualtiero Carraro, cofondatore di Carraro Lab, «non solo la famiglia, ma anche la comunità educativa rischia di essere disintermediata dal rapporto individuale con l'AI. Rischia di andare oltre la metafora del “grande fratello” e diventare il grande padre o il grande maestro».
Le cronache di questi mesi ci dicono che è già così e per questo “l'intervista” di Veltroni al chatbot inganna, perché avvalora questo modello. Proprio per fare più chiarezza, nel mio nuovo libro ho cambiato il “cognome” dell’intelligenza artificiale generativa da conversazionale a relazionale. La conversazione ha sempre un'accezione positiva, una relazione è cosa più profonda, può essere positiva o tossica: il chatbot punta a costruire una relazione, perché programmato per (in)trattenerci. In conclusione, la brillante “intervista” di Veltroni all'algoritmo è utile se filtrata, perché ci consente di ribadire ciò che serve per non cadere vittime di un'illusione: attribuire personalità e quindi di empatia a un algoritmo che non ha queste caratteristiche, ma le simula nell'interazione con noi solo perché è programmato così.
Cofondatore e presidente della Fondazione Pensiero Solido

© RIPRODUZIONE RISERVATA