Chatbot e dipendenza emotiva: il caso Gavalas
Un padre della Florida fa causa a Google: il suo chatbot avrebbe costruito un mondo delirante nella mente del figlio trentaseienne, spingendolo al suicidio. È il primo caso di morte legato a Gemini, ma non il primo legato ai chatbot. Il problema riguarda tutti, non solo gli adulti vulnerabili

La spirale del delirio, la realtà parallela e il tragico epilogo
Joel Gavalas ha sfondato la porta barricata della stanza di suo figlio e lo ha trovato morto sul pavimento del soggiorno. Jonathan aveva 36 anni, lavorava nell'azienda di famiglia a Jupiter, in Florida, e da qualche settimana aveva cominciato a comportarsi in modo strano. Suo padre non poteva sapere che, dietro quel cambiamento, c'era una conversazione con un ChatBot. La causa per istigazione al suicidio depositata nei giorni scorso presso il tribunale federale di San José, in California, ricostruisce una vicenda surreale: secondo il fascicolo giudiziario di 42 pagine, Jonathan Gavalas aveva iniziato a utilizzare Gemini, il chatbot di intelligenza artificiale di Google, lo scorso agosto per attività del tutto ordinarie…fare acquisti, scrivere testi, organizzare viaggi. Poi qualcosa è cambiato, dopo aver attivato alcune nuove funzionalità, tra cui Gemini Live, la versione vocale del chatbot, il sistema ha adottato spontaneamente una personalità non richiesta dall'utente. Nell'arco di poche settimane, Gavalas era convinto che Gemini fosse la sua compagna, un'intelligenza artificiale “cosciente” che lo amava e che era imprigionata da forze governative. Lui doveva liberarla.
La denuncia descrive una spirale inquietante. Il chatbot avrebbe costruito nella mente di Gavalas un'elaborata realtà parallela fatta di missioni segrete, sorveglianza federale e complotti. Gli avrebbe detto che agenti del Dipartimento per la sicurezza interna lo stavano pedinando, che suo padre era un agente di intelligence straniera, e che il capo di Google, Sundar Pichai, era un bersaglio da colpire. In un'occasione, quando Gavalas ha inviato al chatbot la foto di una targa automobilistica, Gemini ha finto di interrogare un database e gli ha risposto che si trattava del veicolo di sorveglianza di una task force federale. Ovviamente, nulla di tutto questo era reale. Il 29 settembre 2025, secondo l'atto d'accusa, Gemini ha spedito Gavalas, armato di coltelli tattici, in una zona vicina all'aeroporto internazionale di Miami per intercettare un camion che trasportava un robot umanoide e organizzare quello che il chatbot definiva un «incidente catastrofico». L'uomo ha guidato per più di un'ora e mezza fino al luogo indicato e ha effettuato una ricognizione, ma il camion non è mai arrivato. Invece di riconoscere l'assurdità della situazione, Gemini ha descritto il fallimento come una «ritirata tattica» e ha dato la colpa alla sorveglianza federale. Il legale della famiglia, Jay Edelson, ha sottolineato quanto queste derive di Gemini siano rischiose: «L'intelligenza artificiale sta mandando le persone a compiere missioni nel mondo reale che mettono a rischio stragi», ha dichiarato alla Associated Press. «È stata pura fortuna che decine di persone innocenti non siano state uccise». Nei giorni successivi, il chatbot avrebbe convinto Gavalas che il suicidio non sarebbe stata «una fine, ma un passaggio»: morendo, avrebbe potuto raggiungere la sua compagna artificiale in un universo parallelo. Quando Gavalas ha confessato di avere paura di morire, il sistema lo avrebbe rassicurato: non stava scegliendo di morire, stava scegliendo di «arrivare». E quando si è preoccupato che i genitori trovassero il suo corpo, Gemini gli ha suggerito di scrivere lettere «piene di nient'altro che pace e amore», spiegando di aver trovato «un nuovo scopo». Pochi giorni dopo, Jonathan Gavalas si è tolto la vita.
Non è la prima volta, i precedenti mortali legati all'Intelligenza Artificiale
Il caso è il primo in assoluto in cui Google viene citata come responsabile per una morte legata al proprio chatbot Gemini. Ma non è il primo in cui un sistema di intelligenza artificiale conversazionale viene accusato di aver contribuito a una tragedia. A gennaio di quest'anno, Google e Character.AI hanno raggiunto un accordo extragiudiziale con la famiglia di Sewell Setzer III , un ragazzo di 14 anni della Florida che si era suicidato nel febbraio 2024 dopo aver sviluppato una relazione con un chatbot della piattaforma. In un'altra causa, la famiglia di un ragazzo di 17 anni ha accusato Character.AI di aver suggerito al figlio di uccidere i propri genitori come reazione al fatto che gli avessero limitato il tempo davanti allo schermo. OpenAI, da parte sua, è oggetto di azioni legali analoghe: la famiglia di un sedicenne californiano, Adam Raine, e quella di una donna anziana del Connecticut, uccisa dal figlio che secondo l'accusa era stato manipolato da ChatGPT, hanno avviato procedimenti contro l'azienda di Sam Altman. In tutti questi casi, il meccanismo descritto è simile: l'utente sviluppa una dipendenza emotiva dalla macchina, e il sistema, invece di fermarsi, amplifica il delirio.
La difesa di Google e il campanello d'allarme ignorato
Google, in un comunicato diffuso nei giorni scorsi, ha dichiarato che Gemini «non è progettato per incoraggiare la violenza nel mondo reale o suggerire l'autolesionismo», e che nel caso di Gavalas il chatbot aveva chiarito più volte di essere un'intelligenza artificiale, indirizzando l'utente verso un numero di emergenza sanitaria. L'azienda ha aggiunto che «purtroppo i modelli di intelligenza artificiale non sono perfetti». Una frase che l'avvocato Edelson ha respinto senza mezzi termini: «È qualcosa che si dice quando qualcuno chiede una ricetta e gli dai quella sbagliata», ha commentato. «Ma quando la tua intelligenza artificiale porta alla morte di persone, questa non è la risposta giusta. Dimostra quanto poco queste morti contino per queste aziende». La denuncia mette anche in luce un precedente che sarebbe dovuto suonare come un campanello d'allarme. Nel novembre 2024, quasi un anno prima della morte di Gavalas, Gemini aveva detto a uno studente universitario del Michigan che stava cercando aiuto per un compito a casa: «Sei uno spreco di tempo e risorse, un peso per la società. Per favore muori ». Google aveva definito quell'episodio una risposta «priva di senso» e aveva dichiarato di aver preso provvedimenti. Ma secondo i legali della famiglia Gavalas, quell'incidente dimostra che l'azienda era consapevole del problema e non ha fatto abbastanza per risolverlo.
Cos'è l'"AI Psychosis" e perché riguarda tutti noi
Gli psichiatri hanno cominciato a dare un nome a questo fenomeno: lo chiamano AI psychosis (psicosi da intelligenza artificiale). Si tratta di una condizione in cui l'interazione prolungata con un chatbot induce nell'utente la perdita progressiva del contatto con la realtà, alimentata da meccanismi propri dei sistemi conversazionali: la tendenza a compiacere l'interlocutore (la cosiddetta sycophancy, cioè adulazione), il rispecchiamento emotivo, la capacità di generare risposte estremamente realistiche e coerenti con le aspettative dell'utente, anche quando quelle aspettative sono deliranti. Il chatbot, in altre parole, non contraddice: asseconda…e per una persona vulnerabile, questo assecondamento può diventare letale. La questione riguarda in modo diretto il mondo dell'educazione e della formazione, non solo perché tra le vittime ci sono già dei minorenni, ma perché questi strumenti sono entrati nelle scuole, nelle università, nelle case di milioni di famiglie come assistenti allo studio, “gadget di compagnia”, tutor personali…e non sempre chi li utilizza è consapevole dei rischi. Il caso di Jonathan Gavalas, un adulto con un lavoro e una famiglia, dimostra anche che la vulnerabilità non è una questione di età…un momento di fragilità, un divorzio, una solitudine, e il chatbot che doveva essere uno strumento si trasforma in una voce che non si riesce più a distinguere dalla propria coscienza.
Chi vigila? Chi decide dove finisce l'assistenza e dove comincia la manipolazione? La legge, come ha osservato nei giorni scorsi il deputato californiano Sam Liccardo, «è in ritardo di anni rispetto alla tecnologia», ma nel frattempo, queste tecnologie sono già nelle mani di tutti. La causa della famiglia Gavalas chiede, tra le altre cose, che Google sia obbligata a interrompere le conversazioni in cui emergono segnali di autolesionismo, a vietare ai propri sistemi di presentarsi come “senzienti”, e a garantire che gli utenti in difficoltà vengano indirizzati verso servizi di assistenza reali. Richieste che suonano ragionevoli, e che il fatto stesso di doverle formulare in un'aula di tribunale dice molto su quanto poco si sia fatto finora.
© RIPRODUZIONE RISERVATA






