Stai male e chiedi aiuto all'intelligenza artificiale? Attento a non finire in trappola
Presentato il Manifesto italiano su salute mentale e Ia. Sempre più utenti, in particolare giovanissimi, chiedono aiuto e consigli a piattaforme come ChatGpt per risolvere i propri problemi di ansia e disagio psicologico. Ma i terapeuti avvertono: «È rischioso»

«Non riesco più a controllare l’ansia, cosa posso fare?». «Ho continui pensieri che non riesco a fermare: è normale?». «Mi capita di stare male senza un motivo preciso, puoi aiutarmi a capire?». Le domande che fino a pochi anni fa venivano rivolte a psicologi in carne e ossa, oggi sempre più spesso – anche in Italia – sono poste a terapeuti governati da algoritmi di intelligenza artificiale. I chatbot non si sottraggono mai alle richieste e, anzi, attivano con l’utente-paziente un dialogo veloce, gratuito e dal tono empatico e comprensivo.
Non stupisce dunque che oggi il mercato delle intelligenze artificiali per il supporto psicologico sia in piena espansione: mentre sono nate piattaforme specializzate nella salute mentale come Wysa, Youper, Elomia o Meomind che offrono alternative più economiche e “on demand” alla terapia tradizionale, si stima che il settore supererà i 17 miliardi di dollari entro il 2030. Già nel 2023 una persona su dieci – rivela uno studio condotto negli Stati Uniti – si era rivolta almeno una volta a strumenti automatizzati per ricevere supporto emotivo o psicologico, e anche OpenAI nel 2025 ha dichiarato che, ogni settimana, centinaia di migliaia di conversazioni sulla piattaforma generalista ChatGpt riguardano proprio temi di disagio psicologico.
Se la tendenza è chiara, non sembrano esserlo altrettanto i rischi che, dunque, hanno voluto mettere nero su bianco i professionisti del Comitato Direttivo della Consulta delle Scuole Italiane di Psicoterapia Cognitiva e Comportamentale (CBT Italia) attraverso un documento: il Manifesto italiano sulla salute mentale e l’intelligenza artificiale. «Abbiamo sentito la necessità di scrivere questo testo programmatico – spiega Maria Grazia Foschino Barbaro, psicologa e psicoterapeuta che ha lavorato al Manifesto, presentato lunedì 20 aprile a Roma in collaborazione con l’Università pontificia salesiana – perché l’Ia è entrata in modo prevalente nell’ambito della salute mentale. Tantissime persone, e ce lo raccontano candidamente anche i pazienti, si affidano a questi sistemi per consegnare le proprie pene. Le sofferenze mentali, però, non sono mai meri elenchi di sintomi né condizioni affrontabili con modalità probabilistiche». Se l’intelligenza artificiale ha il merito di offrire una risposta immediata e a portata di mano, peraltro con un linguaggio che simula vicinanza umana, «manca la relazione – sintetizza Foschino Barbaro – che è il centro di ogni percorso psicologico. A differenza di altri ambiti medici in cui l’Ia porta a risultati perché consente di gestire una grande quantità di dati e di processi, nella salute mentale i progressi si verificano solo in virtù di un’alleanza tra due individui: il paziente e il terapeuta. Non si può prescindere da questo».
Secondo gli autori del Manifesto, questo scarto è proprio un limite strutturale dei sistemi di intelligenza artificiale che non potrà essere superato nemmeno con l’avvento di algoritmi migliori. Il problema è che non tutti i pazienti hanno gli strumenti per accorgersene e così un’intelligenza artificiale che simula empatia e capacità di comprensione può diventare una trappola insidiosa, soprattutto per chi si trova in una fase particolarmente vulnerabile, come gli adolescenti o gli anziani. «Le risposte dei chatbot – insiste la psicologa – sono rapide e per un attimo riescono anche a placare ansie e paure, ma non sono mai risolutive. Inoltre le intelligenze artificiali rischiano di incappare in risposte errate, fuorvianti, parziali, e persino inappropriate e si basano su pregiudizi più che sul vissuto personale del singolo paziente». Tutti questi elementi non solo non aiutano ma possono anche peggiorare il quadro clinico e spingere la persona verso un maggiore isolamento invece di indirizzarla verso un percorso di trasformazione, che è l’obiettivo finale di ogni terapia.
L’intelligenza artificiale può essere utile ma non può sostituirsi alla terapia: è questo il concetto ribadito lungo tutto il Manifesto, che si rivolge anzitutto agli addetti ai lavori ma anche ai decisori politici e alle persone comuni, nelle quali vorrebbe diffondere una maggiore consapevolezza, approfondendo i documenti esistenti sulla materia e indicando alcuni criteri operativi. «L’Ia può aiutare, per esempio, per la parte organizzativa, per avvicinare i pazienti a materiali psicoeducativi ma anche in una prima fase di supporto. Ma la diagnosi, la gestione delle crisi e le interpretazioni dei sintomi – precisa Foschino – devono sempre restare nelle mani umane del terapeuta».
«Noi psicologi e psicoterapeuti – aggiunge ancora la professionista – non condanniamo l’intelligenza artificiale tout court. Anzi, riteniamo che possa essere un punto di partenza nella cura. L’importante che poi il discorso evolva all’interno di uno spazio con un professionista che ha le competenze per muoversi in un momento di crisi. Altrimenti, se la terapia è interpretata solo come un insieme di risposte corrette, disponibili subito e a basso costo, allora diventa naturale immaginare che possa essere automatizzata. Ma non è così».
© RIPRODUZIONE RISERVATA






