Decision Making e ricerca accademica: l’AI può calcolare tutto, tranne la responsabilità

Siamo davvero pronti a delegare la ricerca della verità all'algoritmo? Con l'arrivo di OpenAI Prism la sostituzione intellettuale sembra assumere dei contorni più definiti, diventando quasi una minaccia
January 31, 2026
Decision Making e ricerca accademica: l’AI può calcolare tutto, tranne la responsabilità
Immagine generata con l'Ai per questo articolo dagli studenti delle Scuole Medie coinvolti nel progetto acutisai.it

La rivoluzione di Prism: un nuovo standard per la ricerca universitaria

L’architettura della ricerca accademica sta mutando molto velocemente grazie all’avvento dell’Ai: da qualche giorno, con il recente lancio di Prism, OpenAI ha messo in campo uno strumento che sfrutta la potenza del nuovo modello GPT-5.2 abbinandola alle tecnologie ereditate dall'acquisizione della startup Crixet. Il risultato? Prism si propone come un ecosistema completo per la ricerca universitaria: riesce a formattare automaticamente equazioni ricavate da foto di lavagne e naviga tra milioni di paper scientifici per generare sintesi e citazioni. A casa di Sam Altman non c’è dubbio, Prism ambisce a diventare il nuovo standard operativo per le università di tutto il mondo. Questa ambizione nasce, però, da una dipendenza tecnologica ormai consolidata: ogni settimana, infatti, vengono elaborati otto milioni di quesiti scientifici complessi sui server di ChatGPT. La promessa di Prism – secondo le intenzioni dei suoi sviluppatori – è quella di “risanare” l'ecosistema delle pubblicazioni, eliminando le allucinazioni nelle bibliografie ed eradicando la "scienza sciatta" che ha inquinato il dibattito accademico recente (cioè dopo l’avvento degli Llm).

Il limite etico dell'Ai: la lezione di Blair Effron

Tuttavia, è lecito dubitare su una questione di non poco conto, affidare l'intera impalcatura logica e formale alla macchina nasconde un'insidia che il mondo della ricerca rischia di sottovalutare: la tentazione di delegare all'algoritmo la facoltà di scelta delle fonti oltre che l’elaborazione dei dati stessi. A rivelare questo pericolo, dalle colonne del New York Times, è stato Blair Effron, co-fondatore di Centerview Partners: secondo Effron, l'entusiasmo per l'efficienza tecnocratica si scontra con un limite strutturale dell'intelligenza artificiale: l'incapacità di comprendere il contesto, i valori etici (il cosiddetto allineamento valoriale) e il peso delle responsabilità. Effron dimostra come decisioni matematicamente perfette possano rivelarsi disastrose nella pratica, cita l'esempio di un consiglio di amministrazione alle prese con il prezzo di un’acquisizione: l'AI, analizzando i bilanci, suggerì una valutazione bassa e logicamente ineccepibile. Tale cifra, però, fu scartata dagli umani…l'algoritmo, infatti, non poteva "vedere" le tensioni personali tra i due Ceo coinvolti, una variabile puramente emotiva che rendeva necessario un prezzo più alto per soddisfare l'orgoglio delle parti e chiudere l'accordo.

Allenare il "muscolo del giudizio" contro l'atrofia decisionale

È in questo spazio che si definisce la nuova sfida educativa. Ormai è chiaro che esistono decine di strumenti che, come Prism, sollevano i ricercatori dalla fatica compilativa, proprio per questo c'è il rischio che si atrofizzi quello che Effron chiama «il muscolo del giudizio», ovvero «la capacità di decidere tra valori in competizione e differenze di opinione». Una competenza che il finanziere non ha appreso sui manuali di economia, ma studiando la common law britannica medievale, dove i giudici del XIV secolo dovevano pronunciare sentenze navigando a vista, nell'incertezza e nell'assenza di prove definitive. L'AI cerca costantemente pattern e convergenze, rifuggendo l'ambiguità: di fronte alla scelta tra vendere un'unità aziendale stabile o una volatile ad alta crescita, il software ha puntato sulla sicurezza della prima; l'intuizione umana ha scelto la seconda, vedendo un potenziale invisibile che ovviamente non emerge dai dati storici.

Verso una responsabilità radicale: formare al discernimento

La missione per le scuole e le università deve quindi evolversi verso nuovi step: serve ancora insegnare a cercare e trovare risposte — terreno in cui Prism è imbattibile — o piuttosto è meglio puntare a formare individui in grado di contestare la sicurezza algoritmica? Accettare passivamente i risultati di un sistema che gestisce procedura di ricerca e bibliografia lascia implicitamente intendere che la risposta giusta sia sempre quella calcolabile. La realtà, fatta di "dinamiche umane" e complessi "paesaggi normativi", dimostra invece che le decisioni cruciali spesso sfuggono ai modelli matematici, sono tutt’altro che calcolabili. Il profilo professionale del futuro, secondo Effron, sarà dunque un "generalista dotato di discernimento", capace di avere l'audacia intellettuale di scartare un risultato fornito da un'AI onnisciente in nome di valori non quantificabili. L'era di Prism (e di tutti i suoi surrogati) chiude forse la fase della fatica manuale della ricerca, ma apre quella della responsabilità radicale, perché se da un lato l'algoritmo può indicare la via statisticamente più prudente, dall’altro non porterà mai il peso della scelta…quando lo schermo del pc si spegne, a rispondere delle conseguenze resta solo l'essere umano, l'unico ancora dotato di una coscienza.

© RIPRODUZIONE RISERVATA