Rubriche

Le allucinazioni dell’IA sono la parola dell’anno

Gigio Rancilio venerdì 17 novembre 2023
Sicuramente lo ricorderete: Intelligenza Artificiale (AI) è stata nominata, qualche giorno fa, parola dell’anno 2023 dal Collins Dictionary. A dimostrazione di quanto oggi sia centrale nelle nostre vite il tema e il ruolo dell’IA (o AI, all’inglese). Per il Cambridge Dictionary la parola dell’anno è invece «hallucinate» («avere allucinazioni»). Il lemma esiste già ed è riferito a una definizione registrata nel vocabolario da tempo ma che, secondo gli esperti di Cambridge, «ha acquisito un significato in più e va al cuore del motivo per cui oggi si parla di intelligenza artificiale (IA)». La definizione originale di «hallucinate» («avere allucinazioni») è «credere di vedere, sentire, percepire o odorare qualcosa che non esiste, di solito a causa di una condizione di salute o perché si è assunto un farmaco» (o una droga). Ma ora ha un significato aggiuntivo - spiega un articolo sul sito del dizionario - «relativo a quando i sistemi di intelligenza artificiale come ChatGPT, che generano testi che imitano la scrittura umana, contengono e producono allucinazioni, cioè informazioni false, distorte o dannose». A seconda del nostro grado di conoscenza del tema e del nostro carattere, l’idea che una macchina abbia e produca allucinazioni può farci spaventare o addirittura sorridere, immaginandola come una sorta di computer ubriaco o sotto allucinogeni. La questione, però, è seria. Perché ci ricorda che, almeno per ora e probabilmente per molto tempo ancora, ciò che sistemi come ChatGPT producono non può essere considerato oro colato. Ciò che le intelligenze artificiali generative producono sono infatti molto spesso contenuti che appaiono del tutto plausibili, il che però non significa che contengano solo informazioni vere. Anzi. Poi c’è l’altro lato della medaglia. Ogni volta che noi esseri umani diciamo che l’IA sbaglia e può sbagliare ci prendiamo una sorta di rivincita su quelle macchine di cui (anche per via di romanzi, film e serie tv) abbiamo tutto sommato paura, chi più e chi meno. Perché è estremamente consolante saperle ancora imperfette. Un po’ meno l’idea che sappiano raccontare bugie in maniera molto credibile, al punto da farle sembrare verità. Perché accade? Ha provato a spiegarlo bene su Agenda digitale la psicologa Chiara Cilardo. «Lo stato di “allucinazione dell’intelligenza artificiale” (AI Hallucination State) può riguardare tutti i tipi di output come testi, audio, video e immagini, per esempio generando foto di mani con sei dita». E ancora: «L’allucinazione per essere tale non deriva da un errore nei codici di programmazione e non dipende da un addestramento inadeguato». Ma avverrebbe paradossalmente perché le macchine non sono abbastanza umane. Per esempio, è stato scoperto che quando noi umani siamo stanchi e subiamo un calo di capacità, abbiamo una maggiore efficacia nel risolvere problemi. Insomma, «sarebbe necessario una sorta di “meccanismo di disimpegno” per evitare sovraccarichi alla memoria di lavoro». Le intelligenze artificiali non hanno problemi nelle capacità di memoria ed ecco perché queste funzioni lavorano sempre al massimo, aumentando nel contempo la probabilità di risposte come le allucinazioni. Per dirla in maniera un po’ superficiale, per lavorare meglio anche l’IA dovrebbe ogni tanto provare un po’ di stanchezza. © riproduzione riservata