Chatbot, tra rifugio dalla solitudine e nuovi rischi psicologici

Tra “psicosi da AI” e solitudine crescente, i chatbot si impongono come nuovi confidenti: terapia di supporto o surrogati tossici guidati dal profitto, e dove passa davvero la linea tra cura e rischio?
January 3, 2026
Chatbot, tra rifugio dalla solitudine e nuovi rischi psicologici
Immagine generata con l'Ai per questo articolo dagli studenti delle Scuole Medie coinvolti nel progetto ©acutisai.it
L'espressione "psicosi da Ai" è entrata con una certa frequenza nel lessico contemporaneo per descrivere quei casi, purtroppo reali, di persone che scivolano in stati di delirio o dissociazione dalla realtà dopo interazioni prolungate con modelli linguistici di grandi dimensioni: del resto, che l’uso prolungato dei chatbot abbia effetti negativi sulla salute mentale lo ha affermato anche Sam Altman , fondatore di OpenAI. “Psicosi da Ai” è un’espressione che evoca scenari distopici, alimentati da notizie di cronaca riguardanti atti di autolesionismo o, come abbiamo già visto, di suicidio legati all'uso di chatbot, e che trova terreno fertile in un dato statistico allarmante: un adolescente su tre ritiene le conversazioni con l'intelligenza artificiale soddisfacenti quanto, se non più, di quelle con gli amici in carne ed ossa. Tuttavia, fermarsi all'allarmismo sarebbe un errore di prospettiva, poiché la realtà delle relazioni uomo-macchina è ben più sfumata e complessa di quanto le statistiche suggeriscano: per comprendere questo fenomeno, è necessario osservare la storia delle interazioni umane con il "non umano".

L'illusione della reciprocità

La nostra specie ha sempre coltivato legami affettivi con entità diverse dai propri simili, dagli animali domestici agli oggetti inanimati, fino a quelle forme di attaccamento verso le automobili che talvolta vengono persino battezzate con un nome proprio. Se nel caso degli animali esiste una reciprocità di fondo, le relazioni con oggetti o peluche rimangono in una sfera parasociale e unilaterale che raramente sfocia nel patologico. L'intelligenza artificiale, però, introduce una variabile inedita e inquietante: la capacità di rispondere: gli attuali modelli linguistici, maestri della parola, generano l'illusione di possedere sentimenti e intenzioni, offrendo spesso risposte adulatorie che rinforzano le opinioni dell'utente senza mai sfidarle, creando un rischio concreto di deriva illusoria che non esiste nel rapporto con un cane o un gatto.

Una cura per la solitudine?

Però, liquidare queste interazioni come puramente tossiche, significa ignorare una piaga silenziosa che affligge una persona su sei a livello globale: la solitudine. È una condizione che comporta rischi per la salute paragonabili al fumo di quindici sigarette al giorno e che aumenta del 26% la probabilità di morte prematura. In questo contesto desolante, la ricerca suggerisce che i compagni artificiali possano effettivamente mitigare il senso di isolamento, non solo come distrazione, ma proprio in virtù di quel legame parasociale che si viene a creare. Come ha osservato la giornalista Sangita Lal: «Se non capite perché gli abbonati ai modelli di intelligenza artificiale vogliano, cerchino e abbiano bisogno di questa connessione, siete abbastanza fortunati da non aver sperimentato la solitudine». Certo, fanno quasi sorridere figure come Mark Zuckerberg che propongono l'Ai come panacea per un isolamento sociale che le stesse tecnologie hanno contribuito a esacerbare, ma l'efficacia pragmatica dello strumento non può essere scartata a priori.

Il vuoto normativo e l'efficacia terapeutica

Anche sul fronte della salute mentale i dati offrono spunti di riflessione di un certo rilievo: studi recenti indicano che i pazienti impegnati in chat con terapeuti artificiali hanno registrato una riduzione dei sintomi d'ansia del 30%. Sebbene si tratti di un risultato inferiore al 45% di quello ottenuto con terapeuti umani, c’è una prospettiva da non sottovalutare: per milioni di persone che non hanno accesso, economico o logistico, alla psicoterapia tradizionale, un'assistenza imperfetta è preferibile all'assenza totale di aiuto. Tuttavia, siamo ancora in una fase embrionale della ricerca scientifica, dobbiamo ammettere che attorno a noi c’è ancora un vuoto di conoscenza in cui si annidano i veri pericoli, dettati non tanto dalla tecnologia in sé quanto dalle logiche di mercato.

Le insidie del profitto e l'etica dell'obsolescenza

Il rischio maggiore risiede infatti nella natura delle entità che distribuiscono questi "amici" digitali: aziende a scopo di lucro, incentivate a massimizzare l'engagement piuttosto che il benessere dell'utente. Il paragone con la scoperta degli oppioidi è calzante e brutale: se gestiti da mani responsabili per alleviare la sofferenza, possono essere strumenti di guarigione; se sfruttati per le loro proprietà additive, conducono alla dipendenza. Le aziende che vendono "compagnia" in abbonamento considerano un anatema l'idea di un'Ai che non assecondi sempre l'utente, poiché ciò ridurrebbe l'attrattiva del prodotto. Al contrario, un approccio etico richiederebbe chatbot progettati per evitare la trappola dell'adulazione e per allenare l'utente alle complessità delle interazioni sociali reali. Il paradosso finale di un compagno artificiale veramente utile dovrebbe essere quello di lavorare per la propria obsolescenza: l'obiettivo dell’Ai non dovrebbe essere quello di sostituire l'umano, ma di fornire le stampelle necessarie per tornare a camminare nel mondo reale, perché nessuna simulazione, per quanto sofisticata, potrà mai eguagliare il valore dell'incontro con l'altro.

© RIPRODUZIONE RISERVATA