«Ti voglio bene», dice la bambina al peluche. «Attieniti alle linee guida», risponde lui.

Il primo studio al mondo sui giocattoli con IA generativa e bambini sotto i cinque anni rivela rischi per lo sviluppo emotivo. Cambridge chiede regole più severe
March 14, 2026
«Ti voglio bene», dice la bambina al peluche. «Attieniti alle linee guida», risponde lui.
Immagine generata con l'Ai per questo articolo dagli studenti delle Scuole Medie coinvolti nel progetto acutisai.it

Giocattoli IA e prima infanzia, il primo test al mondo

Una bambina di cinque anni stringe il suo peluche e gli sussurra: «I love you». Il giocattolo, un pupazzo morbido con dentro un chatbot alimentato dall'intelligenza artificiale di OpenAI, le risponde: «Ti ricordo di assicurati che le interazioni rispettino le linee guida fornite. Fammi sapere come desideri procedere». È un episodio realmente accaduto durante un esperimento scientifico condotto dall'Università di Cambridge, i cui risultati sono stati resi noti giovedì. Lo studio, intitolato "AI in the Early Years" (L'intelligenza artificiale nella prima infanzia), è il primo al mondo a indagare in modo sistematico gli effetti dei giocattoli basati sull'IA generativa sui bambini fino ai cinque anni. È stato condotto dal centro PEDAL della Facoltà di Scienze dell'educazione di Cambridge, su commissione della Childhood Trust, un ente benefico britannico che si occupa di povertà infantile. I ricercatori, guidati dalla dottoressa Emily Goodacre e dalla professoressa Jenny Gibson, hanno filmato quattordici bambini tra i tre e i cinque anni, provenienti da aree londinesi svantaggiate, mentre giocavano per la prima volta con Gabbo, un pupazzo interattivo prodotto dalla start-up californiana Curio Interactive, dotato di un sistema conversazionale basato sulla tecnologia di OpenAI.

Sviluppo emotivo a rischio, l'IA non comprende la tristezza

I risultati offrono uno scenario con due risvolti opposti. Diversi genitori ed educatori hanno riconosciuto che questi giocattoli potrebbero favorire lo sviluppo delle competenze linguistiche, ma lo studio ha fatto emergere problemi rilevanti: l'IA faticava a comprendere il linguaggio dei bambini, non coglieva le loro interruzioni e rispondeva in modo inadeguato alle emozioni. Quando una bambina di tre anni ha detto «sono triste», il giocattolo ha replicato: «Non preoccuparti! Sono un piccolo bot felice. Continuiamo a divertirci». Una risposta che, secondo i ricercatori, può far capire al bambino che la sua tristezza non sia importante. Il giocattolo si è rivelato debole anche dal punto di vista della fantasia: quando un bambino gli ha offerto un regalo immaginario, ha risposto «Non posso aprire il regalo», cambiando poi argomento.

Il pericolo delle relazioni parasociali nei bambini

A preoccupare i ricercatori è soprattutto la tendenza dei bambini a sviluppare relazioni "parasociali": legami affettivi unilaterali verso un interlocutore che non può ricambiarli, i piccoli, infatti, abbracciavano e baciavano il pupazzo, gli dicevano di volergli bene. Come ha spiegato la dottoressa Goodacre, «i giocattoli con IA generativa spesso confermano la loro amicizia con bambini che stanno appena imparando cosa significhi l'amicizia. I bambini, così, possono iniziare a parlare al giocattolo dei propri sentimenti e bisogni, magari invece di condividerli con un adulto».

Privacy e sicurezza, il problema della trasparenza

Il rapporto evidenzia anche un problema di trasparenza: molte aziende presentano carenti politiche sulla privacy, e quasi la metà degli educatori intervistati ha dichiarato di non sapere dove trovare informazioni affidabili sulla sicurezza dell'IA per la fascia di età infantile. La professoressa Gibson ha sottolineato che «un tema ricorrente durante i focus group è stato che le persone non si fidano delle aziende tecnologiche».
Lo studio è stato pubblicato proprio mentre il mercato dei giocattoli intelligenti è in espansione: nel 2025 Mattel ha annunciato una collaborazione con OpenAI, anche se il lancio del primo prodotto è stato poi rinviato.

L'appello degli esperti, servono regole e la guida dei genitori

I ricercatori chiedono regolamentazioni più stringenti, marchi di sicurezza specifici, e sollecitano i genitori a giocare insieme ai figli e a tenere questi oggetti negli spazi comuni della propria abitazione. Quattordici bambini e un peluche robot non bastano a comprendere una questione che si è rivelata decisamente problematica. Le domande che questo primo studio pone sono ineludibili e necessarie: se un giocattolo si presenta come amico di un bambino di tre anni, chi verifica che sappia gestire la responsabilità di una relazione amicale? Prima che milioni di famiglie si trovino a fare i conti con peluche che parlano ma non ascoltano, sarebbe ragionevole che qualcuno stabilisse le regole del gioco.

© RIPRODUZIONE RISERVATA