L'AI sta distruggendo la ricerca? Il caso dei fondi pubblici chiesti con studi inesistenti
Studi fantasma, citazioni false e statistiche inventate: la vicenda dimostra che senza controllo umano, l'Intelligenza Artificiale rischia di trasformare le politiche pubbliche in una costosa illusione

Lo scandalo australiano: fondi pubblici richiesti con «poltiglia scritta dall'Ai»
Verso la fine di settembre, nel cuore di Manhattan, si è assistito a una scena surreale: un cowboy ha attraversato la folla per imbrigliare con un cappio il famoso Toro di Wall Street. Era una costosa operazione di marketing ideata da Lunos, una startup intenzionata a «domare il selvaggio West» della contabilità aziendale. Nel distretto finanziario newyorkese il Far West è solo una metafora, ma nel delicato ambito dell’educazione, il confine tra vero e falso si sta sgretolando davvero, con esiti ben più preoccupanti di una performance equestre. Se, da una parte, l'ecosistema delle startup Ai si affida a trovate sempre più grottesche – basti pensare al Ceo di Personal AI che si è presentato in pantaloncini per mostrare come i modelli linguistici siano metaforicamente «nudi» e vulnerabili – il settore accademico sembra aver imboccato la strada sbagliata, privilegiando l'apparenza rispetto alla solidità (e alla verificabilità) dei contenuti. Il caso più eclatante arriva dall'Australia, dove l'OurFutures Institute, affiliato all'Università di Sydney, ha presentato ai politici un documento scientifico: per supportare una richiesta di fondi pubblici pari a 20 milioni di dollari, da destinare a progetti educativi per prevenire il gioco d'azzardo. Quel dossier, che avrebbe dovuto fondarsi su evidenze inattaccabili, è stato liquidato dal senatore indipendente David Pocock come mera «poltiglia scritta dall'AI». L'indagine condotta dal Guardian Australia ha smascherato il documento, rivelando un accumulo di inesattezze che denunciano un impiego negligente dell'intelligenza artificiale generativa: il rapporto presentava oltre venti link non funzionanti e faceva riferimento a studi inesistenti o attribuiti erroneamente a persone realmente esistenti. Emblematico è l'episodio che coinvolge la professoressa Samantha Thomas della Deakin University: l'esperta di salute pubblica si è vista assegnare la paternità di due ricerche che non ha mai redatto e che, di fatto, non esistono.
Statistiche inventate e citazioni fantasma, quando l'algoritmo crea la realtà
Ancor più allarmante è la creazione di dati fittizi per avvalorare le richieste dell'istituto: si citava un'indagine della Productivity Commission affermando che ogni dollaro speso in prevenzione scolastica ne facesse risparmiare tra gli 8 e i 10 allo stato. In verità questa statistica è assente nel report originale, che anzi manifestava scetticismo sull'efficacia dei progetti sul gioco d’azzardo nelle scuole, spesso sostenuta proprio dalle lobby dell'azzardo.
Ken Wallace, direttore dell'OurFutures Institute, ha provato a difendersi definendo l'accaduto un «errore fatto in buona fede», attribuendo la colpa a uno «strumento di editing» utilizzato per riorganizzare la bibliografia. Una spiegazione che appare irricevibile se confrontata con la portata delle "allucinazioni" generate, tra cui citazioni inventate di sana pianta e conclusioni scientifiche invertite. Questa vicenda rispecchia quella «mentalità da accaparramento di territori» identificata da Emily Heyward nel mondo delle startup: l'urgenza di occupare uno spazio e drenare risorse porta alla produzione di fuffa, sacrificando la visione strategica o, come in questo frangente, la verità dei fatti.
Un problema di moralità, i rischi per il mondo educativo e la democrazia
L'impiego dell'intelligenza artificiale, sia per gestire la fatturazione o per compilare riferimenti accademici, porta con sé pericoli che vanno ben oltre le semplici “anomalie tecniche”. Come ha osservato Tom Goodwin, c'è una certa «mancanza di moralità» radicata in alcuni di questi strumenti, che operano attraverso l'appropriazione indebita di diritti d’autore e l'indifferenza verso i valori etici. Nel campo dell’educazione, questo trend si traduce nel pericolo reale di sovvenzionare iniziative inutili o addirittura nocive, fondate su prove inesistenti. Il senatore Pocock ha ribadito che la priorità del governo dovrebbe essere quella di vietare la pubblicità dell'azzardo rivolta ai minori, invece di finanziare programmi scolastici che la stessa commissione ha ritenuto potenzialmente controproducenti. Lo scandalo australiano è l’ennesima prova che, se l'AI viene usata senza un vaglio critico, non si ottiene efficienza, ma solo l'inquinamento del processo decisionale o addirittura dell’iter democratico. Non è accettabile che le scelte che riguardino l'istruzione siano delegate a sistemi che costruiscono una realtà inesistente per accontentare l'utente, riducendo la scienza a uno spettacolo illusionista dove le fonti svaniscono e riappaiono a piacimento. Se le startup possono permettersi la provocazione per restare a galla, il mondo educativo ed accademico richiede un rigore e una verifica che nessuna «spazzatura algoritmica» potrà mai rimpiazzare.
© RIPRODUZIONE RISERVATA






