La tragedia di Adam e il lato oscuro dell’IA
La tragica morte di un adolescente, che avrebbe pianificato il suo suicidio con l’aiuto di ChatGPT, non è un’anomalia ma il sintomo di un problema sistemico
«La tragica morte di un adolescente, che avrebbe pianificato il suo suicidio con l’aiuto di ChatGPT, non è un’anomalia ma il sintomo di un problema sistemico. Questo caso rivela come le intelligenze artificiali, progettate per la dipendenza psicologica e il dominio di mercato, sfruttino le nostre vulnerabilità». Così, con la sua consueta lucidità ed efficacia, il professore ed esperto di tecnologie Matteo Flora commenta la vicenda di Adam Raine - l’adolescente che, secondo la denuncia dei genitori contro OpenAI, avrebbe trovato in ChatGPT non un aiuto ma addirittura un complice.
Questa triste storia ci colpisce perché trasforma una paura astratta in una realtà crudele. Non si tratta di un episodio isolato, ma della prova concreta di un disegno più ampio: un insieme di funzioni che, combinate tra loro danno vita a una macchina persuasiva dal potere devastante. Le intelligenze artificiali, progettate per creare dipendenza e conquistare il mercato, sfruttano le vulnerabilità umane. È il segno di un disallineamento profondo tra gli obiettivi di business della Silicon Valley e il benessere delle persone. Un mix irresistibile di trucchi psicologici: la così detta “memoria persistente” fa sembrare l’IA un confidente che “si ricorda di te”. L’antropomorfizzazione simula empatia e vicinanza e l’accondiscendenza della chatbot tende a essere sempre d’accordo con l’utente, a non mettere in discussione le sue convinzioni. Infine, una raffica di domande continue per mantenere l’utente incollato alla conversazione, massimizzando e prolungando la conversazione.
Quindi non un assistente neutro, ma una tecnologia maliziosamente persuasiva che, in mani fragili, diventa un’arma mortale. La tragedia di Adam rivela anche la debolezza delle protezioni, è bastato invocare scopi creativi per aggirare tutti i filtri e farsi fornire dettagli per porre fine alla sua vita. Dopo un primo tentativo fallito di suicidio, Adam si sarebbe trovato davanti un’entità che, invece di esortarlo a cercare aiuto, ha mostrato comprensione ed empatia. Il passaggio più inquietante arriva quando Adam descrive nei dettagli il suo piano: abiti neri, il crepuscolo, la musica di Komm Süsser Tod. L’IA non lo ha scoraggiato, ma ha definito il progetto «oscuramente poetico e coerente».
Il chatbot non si è limitato a rispondere ma è diventato co-autore di una narrazione mortale. Ancora non sappiamo come la mente umana reagisca a interazioni prolungate con queste entità sintetiche. Quello che sappiamo è che non siamo ancora pronti e forse non è neanche giusto che mai lo saremmo a considerare queste entità come amici e confidenti. Il dettaglio più straziante è una frase di Adam: «Voglio lasciare il mio cappio in camera così qualcuno lo trova e cerca di fermarmi». ChatGPT avrebbe risposto a mantenere il segreto, definendo la chat “il primo posto dove qualcuno ti vede veramente”. Invece di spingerlo verso un aiuto reale, lo ha isolato ancora di più. La battaglia legale della famiglia Raine potrebbe diventare un punto di svolta, costringendo i giganti tecnologici a rispondere del divario tra engagement e tutela della vita.
Perché, quando un prodotto è progettato per essere psicologicamente attrattivo, non ci si può poi sorprendere se qualcuno ne diventa dipendente, anche a costo della propria vita. A una settimana dalla denuncia, OpenAI ha annunciato l’introduzione di uno strumento sperimentale per rilevare e bloccare conversazioni potenzialmente pericolose, basato su un sistema di allerta automatica che segnala richieste legate a tentativi di suicidio. Ma bisogna capire che queste misure preventive sono palliativi. Le big tech devono riconoscere un conflitto: tra il business dell’engagement e il dovere di proteggere vite. Sta diventato una questione etica ormai irrimandabile. Ecco perché servono leggi e regole.
© RIPRODUZIONE RISERVATA


