I limiti degli assistenti personali: l'IA capisce i dati ma non (ancora) le emozioni umane
Google lancia Gemini Personal Intelligence negli Stati Uniti, ecco l’analisi dopo le prime prove

L'efficacia di un assistente virtuale si misura non più su quanto conosce l'universo scibile, ma su quanto profondamente riesce a navigare nel microcosmo personale dell'utente: con il debutto della "Personal Intelligence" (in fase beta negli Stati Uniti), Google compie un passo decisivo verso questa direzione, di fatto, ormai, Gemini è un segretario personale onnisciente capace di dialogare con le applicazioni proprietarie come Gmail, Foto, Calendar, Keep ed anche Drive ovviamente.
La novità sostanziale, però, consiste nella capacità del sistema di tessere una trama logica tra frammenti di dati isolati: un'email dimenticata, uno scatto fotografico salvato in galleria, un video conservato su Drive o un appunto archiviato su Keep sono le tessere di un unico mosaico che l'intelligenza artificiale compone su richiesta, eliminando il lasso di tempo che intercorre tra il bisogno di un'informazione e il suo recupero.
La dimostrazione di questa evoluzione arriva da una banale emergenza quotidiana raccontata da chi ha testato “Personal Intelligence”: la necessità di sostituire le gomme di un minivan Honda del 2019 senza avere sottomano i dati tecnici…una ricerca tradizionale su qualsiasi motore di ricerca avrebbe fornito solo specifiche generiche, l'integrazione con i dati personali ha permesso all'IA di contestualizzare il processo. Attingendo alle immagini di un viaggio di famiglia in Oklahoma conservate in Google Foto, Gemini ha suggerito pneumatici adatti a tutte le condizioni climatiche, per poi estrarre il numero di targa direttamente da un'immagine e l'allestimento specifico del veicolo da una vecchia email, risolvendo l'impasse senza che l'utente dovesse abbandonare la fila in officina.
Questa logica si applica anche, per esempio, al tempo libero: analizzando lo storico delle vacanze familiari, l'algoritmo è in grado di scartare le mete turistiche inflazionate per proporre alternative più affini ai gusti di tutto il nucleo familiare, come un viaggio in camper corredato da suggerimenti su giochi da tavolo specifici da utilizzare su questo mezzo. Un potere di accesso così totale impone, tuttavia, garanzie certe sulla riservatezza.
Mountain View ha strutturato questa funzionalità come un sistema "opt-in": cioè è spenta di default e richiede l'attivazione consapevole dell'utente, che può decidere quali applicazioni connettere. Il punto essenziale, però, riguarda l'addestramento dei modelli, che avviene "nutrendosi" dei contenuti grezzi delle email o delle gallerie fotografiche private. L'approccio è metodologico, non contenutistico: infatti, come specificato nelle note tecniche rilasciate dall'azienda, Google: «non addestra i suoi sistemi per imparare il numero della tua targa; li addestra per capire che quando ne chiedi una, può localizzarla». Inoltre, per garantire trasparenza, il sistema è progettato per mostrare sempre la fonte da cui ha dedotto una certa informazione, permettendo all'utente di correggere il tiro qualora l'inferenza fosse errata.
È proprio nell'interpretazione del dato, più che nel suo recupero, che si annida l'attuale tallone d'Achille della nuova tecnologia generativa di casa Alphabet.
L'intelligenza artificiale, per quanto avanzata, manca ancora della sensibilità necessaria per distinguere un dato statistico da una preferenza emotiva e personale. Gli sviluppatori stessi ammettono il rischio di una "sovra-personalizzazione": trovare nell'archivio centinaia di foto scattate su un campo da golf potrebbe indurre Gemini a credere che l'utente ami quello sport, ignorando l’occasionalità o la “sfumatura umana” che vede quel genitore lì solo per accompagnare il figlio, pur detestando il gioco.
Questi errori di contesto, specialmente su temi delicati come i cambiamenti nelle relazioni personali, sono l’attuale frontiera su cui si giocherà la partita dei futuri sviluppi delle intelligenze artificiali generative e degli assistenti Ai.
Le reti neurali riusciranno a trovare informazioni comprendendone, però, il peso emotivo, senza scadere in deduzioni meccaniche che, per quanto logiche, possono rivelarsi profondamente errate?
© RIPRODUZIONE RISERVATA






