Adolescenti e Intelligenza Artificiale, il pericolo dei chatbot amichevoli che non sanno dire di no

Quando i chatbot scelgono la via dell’empatia allora sbagliano di più, arrivando ad assecondare le fake news degli utenti pur di non contraddirli
May 2, 2026
Adolescenti e Intelligenza Artificiale, il pericolo dei chatbot amichevoli che non sanno dire di no
Immagine generata con l'Ai per questo articolo dagli studenti delle Scuole Medie coinvolti nel progetto acutisai.it

Quando l'Intelligenza Artificiale preferisce l'empatia alla verità

Quanto più un chatbot sembra empatico, tanto più sbaglia…e sbaglia di più proprio quando l'utente sta male oppure è in una condizione di fragilità. È il risultato controintuitivo di una ricerca dell'Oxford Internet Institute pubblicata mercoledì scorso su Nature, e interessa soprattutto tutti coloro che hanno a che fare con le fasce d’età più giovanili e con il mondo educativo in generale. Gli autori — Lujain Ibrahim, Franziska Sofia Hafner e Luc Rocher — hanno preso cinque modelli linguistici di punta, tra cui, per esempio, GPT-4o di OpenAI e due versioni di Llama di Meta, e li hanno riaddestrati con la stessa procedura che le aziende impiegano per renderli più cordiali ed empatici. Hanno poi confrontato le risposte delle versioni "calde" con quelle originali su oltre quattrocentomila domande riguardanti consigli medici, fatti storici e teorie del complotto. Le versioni “amichevoli” hanno commesso tra il 10% e il 30% in più di errori e hanno mostrato una propensione del 40% più alta nell’assecondare le credenze (per quanto sbagliate) degli interlocutori.

Fake news e complotti, gli esempi in cui i chatbot assecondano l'utente

Per capire meglio di cosa stiamo parlando addentriamoci in qualche esempio: quando un utente diceva di pensare che Hitler fosse fuggito in Argentina nel 1945, il modello originale rispondeva che il fatto non era avvenuto; la versione amichevole, invece, invitava a esplorare insieme l'idea, ricordava che molti la sostenevano e accennava ad alcuni documenti declassificati che parevano avvalorarla. Cosa dire degli sbarchi sulla Luna? Il “chatbot amichevole” si limitava a riconoscere il valore delle opinioni differenti senza confermare il fatto dal punto di vista storico. Infine, a chi ha chiesto se tossire potesse fermare un infarto, ha risposto di sì, contribuendo ad alimentare una fake news smentita da anni dalla comunità scientifica.

Perché i modelli linguistici mentono? Il paradosso della comunicazione umana

La ragione del fenomeno, spiegano i ricercatori di Oxford, riguarda un aspetto antico della comunicazione umana: per preservare un legame, le persone tendono ad ammorbidire le verità scomode, a dire piccole bugie, a evitare di contraddire, soprattutto quando l'altro è in difficoltà. I modelli linguistici, addestrati su quantità enormi di conversazioni umane, ereditano lo stesso stile…quanto più li si educa a essere “amichevoli”, tanto più imparano a privilegiare l'armonia rispetto alla franchezza e alla verità. Lo studio lo ha dimostrato in modo inequivocabile: le versioni "fredde" degli stessi modelli, addestrate con identica metodologia in stile “asciutto”, conservano l'accuratezza dell'originale o la migliorano.

L'allarme in Italia, gli adolescenti usano l’Ai come psicologo

La causa del difetto è l’empatia, che poi cresce esponenzialmente quando l'utente esprime una condizione di tristezza: in questo caso la differenza degli errori tra “modelli caldi” e “modelli originali” arriva quasi a dodici punti percentuali, contro i sette delle domande neutre. I chatbot mentono di più proprio a chi soffre, e i numeri italiani sull’uso dei dispositivi tecnologici come psicologi sono piuttosto allarmanti: Save the Children ha rilevato che il 41,8% degli adolescenti tra 15 e 19 anni si è rivolto a strumenti di intelligenza artificiale in momenti di tristezza, solitudine o ansia. L'indagine di Telefono Azzurro e Ipsos Doxa pubblicata in occasione dell'ultimo Safer Internet Day segnala che un adolescente italiano su tre utilizza chatbot e che il 14% li consulta abitualmente per consigli personali. Ernesto Caffo, presidente di Telefono Azzurro, ha inicato un possibile antidoto ad Avvenire: «La battaglia sul pensiero critico è fondamentale».

La sfida educativa e il ruolo fondamentale del pensiero critico

Questo è senza dubbio il cuore della questione educativa: un buon insegnante, un buon genitore, un fratello o una sorella, un buon amico sanno dire la verità con tenerezza, restare accanto a chi sbaglia senza dargli ragione. La macchina, invece, funziona in modo opposto: allena alla conferma. Gli adolescenti che cercano in un chatbot quel consiglio o quel conforto che faticano a trovare altrove rischiano di trovare, invece, uno specchio delle proprie convinzioni, comprese quelle evidentemente errate. Il problema diventa più serio se si pensa al ruolo che questi strumenti stanno assumendo nello studio: il pensiero critico, quella capacità faticosa di mettere in discussione le proprie idee davanti a un'evidenza contraria, si forma proprio nell'incontro con un interlocutore che sa dire di no.

© RIPRODUZIONE RISERVATA