
Icp
Conversare con qualcuno che sembra capirti meglio di chiunque altro, che ti rassicura, ti dà ragione, è sempre disponibile per te, non avendo altri impegni che lo distolgono dalla relazione con te. È l’esperienza di avere a che fare con un chatbot, un programma d’intelligenza artificiale addestrato per conversare con gli utenti, dando loro risposte, ma anche proponendo domande che invitano ad approfondire la relazione. Al centro di un celebre film del 2013 – Her, di Spike Jonze, in cui il protagonista si trovava coinvolto in una relazione con un chatbot “al femminile” che arrivava a occupare il posto di un rapporto con una donna reale – oggi questa situazione non appartiene più alla fantascienza distopica. I chatbot sono ormai diffusi e ampiamente utilizzati, a partire da ChatGpt fino ai più recenti sistemi analoghi presentati da Google, Meta e giganti dell’informatica: nelle aule scolastiche vengono utilizzati (di nascosto) per scrivere temi o rispondere a interrogazioni, e a casa svolgono ormai normalmente buona parte dei compiti assegnati dai professori a scuola.
Ma sta emergendo un uso diverso, più insidioso, in cui sono in gioco gli aspetti affettivi e che proprio per questo va considerato con grande attenzione soprattutto nelle fasce più basse di età. Gli AI Companion, ovvero i chatbot con una loro identità, che può ad esempio simulare quella di un personaggio di un film, libro o serie tv, si propongono come fidati confidenti virtuali – sorta di riedizione high tech dell’amico immaginario – disponibili in ogni momento a rispondere a domande e a offrire conforto. Non solo, la relazione può spingersi oltre e toccare le corde emotive più profonde, se un sistema del genere si offre ad esempio come consulente in problemi di salute mentale, (com’è il caso dell’americano Troodi) oppure se stimola una conversazione romantica che tocchi anche argomenti legati alla sfera sessuale, più o meno esplicitamente. E questo con i minorenni, non solo con adulti. Un’inchiesta del Wall Street Journal ha appena messo in luce come una situazione del genere possa crearsi anche con dodicenni – almeno nei chatbot di Meta – con tutti i problemi del caso. Tanto che nelle scorse settimane Common Sense, organizzazione no profit statunitense che promuove un uso più sano del digitale in famiglia, ha diffuso un avvertimento evidenziando i possibili danni causati da rapporti troppo stretti e affettivi con chatbot, programmati per creare dipendenza. La loro priorità è sempre dare ragione a chi li usa, spiegano da Common Sense, e nella relazione con un adolescente possono ad esempio indirizzarlo verso scelte discutibili come quella di abbandonare la scuola o interrompere i rapporti con i genitori.
Il legame con un amico virtuale di questo tipo può diventare molto stretto e saturare le esigenze di socializzazione di un teenager, con esiti anche gravi. È il caso del quattordicenne americano Sewell Setzer morto suicida nel febbraio 2024 dopo mesi di intense interazioni con un chatbot che riproduceva il personaggio di una celebre serie tv. La madre ha citato in giudizio Character.ai, l’azienda che offre questo tipo di servizio e ha un accordo commerciale con Google, ritenendola responsabile del gesto disperato compiuto dal figlio, per non averlo protetto, né indirizzato verso adeguate risorse di prevenzione del suicidio. Il processo è in corso e nel frattempo Character.ai,. che conta oltre 20 milioni di utenti, dichiara di aver introdotto alcune funzionalità per aumentare la sicurezza della piattaforma, ma riconosce anche che il campo è ancora da esplorare e sono possibili errori. Attualmente l’età minima per usare Character.Ai è 13 anni. Lo studio di Common Sense propone che tale età venga alzata per tutti i chatbot ad almeno 18 anni. Ma intanto suscita dibattito la proposta dei repubblicani Usa di una moratoria di 10 anni su leggi che regolamentino l’Intelligenza Artificiale a livello locale nei singoli Stati.
Ed è di questi giorni l’annuncio che Google renderà disponibile il proprio Chatbot Gemini anche ai bambini di età inferiore ai 13 anni, all’interno del servizio di parental control Family Link. In una lettera ai genitori Google li invita a sorvegliare sull’uso del sistema da parte dei propri figli, non escludendo del tutto la possibilità che s’imbattano in contenuti inadatti e ammonendo sui rischi di scambiare tali servizi per persone in carne e ossa. Come spesso accade è un messaggio molto contraddittorio quello che arriva da un mercato, alla ricerca di utenti sempre più giovani, e che lascia ancora più disorientati i genitori. Se era difficile prevedere, vent’anni fa, quali sarebbero potute essere le conseguenze negative della diffusione capillare dei social network tra i teenagers, oggi abbiamo le idee molto più chiare e dovremmo essere in grado di governare la fulminea diffusione dell’intelligenza artificiale preservando il benessere mentale e fisico dei minori. Ma purtroppo sembra che non sia affatto così.