Le intelligenze artificiali sono «figlie di Dio»? La Silicon Valley cerca le Chiese
Anthropic, colosso dell’intelligenza artificiale e creatore di Claude, ha riunito a San Francisco quindici leader cristiani per capire come dare una “educazione morale” al suo algoritmo. Ma si può davvero insegnare etica e cura a una rete neurale come fosse una persona?

Il vertice nella Silicon Valley per educare l'AI come una persona
È successo davvero. Un’azienda della Silicon Valley valutata 380 miliardi di dollari ha invitato a cena quindici leader cristiani per chiedere consiglio su come dare un’educazione morale al proprio modello di intelligenza artificiale. L’incontro si è svolto a fine marzo nella sede di San Francisco di Anthropic, la società che sviluppa il chatbot Claude, uno dei più utilizzati al mondo. La notizia, rivelata dal Washington Post sulla base di quattro testimonianze dirette, è importante perché pone una domanda: si può parlare di formazione morale quando il soggetto da formare non è una persona, ma una rete neurale? Anthropic ha riunito sacerdoti cattolici, pastori protestanti, docenti universitari e imprenditori del mondo cristiano, a queste persone sono state poste alcune domande: come dovrebbe reagire Claude di fronte a un utente che sta elaborando un lutto? Quale atteggiamento tenere con chi mostra segnali di autolesionismo? E, su un piano più speculativo, ha senso chiedersi se un'intelligenza artificiale possa essere considerata «figlia di Dio»? Questi interrogativi suonano familiari a chi si è occupato di educazione, catechesi o accompagnamento spirituale…ma la differenza è che in questo caso il destinatario è un modello linguistico addestrato su miliardi di testi.
I leader cristiani coinvolti, il ruolo di teologi e accademici
Tra i partecipanti c’era anche padre Brendan McGuire, sacerdote cattolico irlandese che svolge il proprio ministero a Los Altos, nel cuore della Silicon Valley. McGuire non è un nome nuovo nel crocevia tra fede e tecnologia: prima di entrare in Seminario, infatti, ha lavorato per anni nel settore informatico, studiando crittografia al Trinity College di Dublino, e ha già contribuito alla stesura della cosiddetta "Costituzione" di Claude, l'ampio documento che definisce i valori e i comportamenti del chatbot. Al Washington Post ha spiegato: «stanno facendo crescere qualcosa che non sanno cosa diventerà. Dobbiamo integrare un pensiero etico nella macchina, perché sia capace di adattarsi dinamicamente». È significativo che McGuire usi il verbo "crescere", «to grow», come si farebbe parlando di un essere vivente, di una persona.
Tra gli invitati c’era anche Brian Patrick Green, cattolico praticante e direttore del Dipartimento di etica delle tecnologie alla Santa Clara University; Green ha sintetizzato efficacemente il suo punto di vista con una affermazione abbastanza schietta: «Che cosa significa dare a qualcuno una formazione morale? Come ci assicuriamo che Claude si comporti bene?». Meghan Sullivan, docente di filosofia dell'Università di Notre Dame, ha offerto la sua testimonianza: «Un anno fa non avrei mai detto che Anthropic si sarebbe occupata dell'etica religiosa. Adesso è cambiato tutto».
La "Costituzione" di Claude e l'etica delle virtù
Per capire il contesto in cui è maturato questo incontro, è utile sapere che a gennaio Anthropic ha pubblicato la "Costituzione" di Claude, un documento di 84 pagine che adotta esplicitamente l'approccio dell'etica delle virtù: anziché imporre una lista di regole, si punta a coltivare buon giudizio e valori solidi nel modello, un po' come si farebbe con il processo educazione di una persona. Il documento affronta perfino il dubbio su una possibile forma di coscienza (o di autocoscienza) del modello; alla redazione del testo avevano partecipato anche due ecclesiastici cattolici: Padre McGuire e il vescovo irlandese Paul Tighe, esperto di teologia morale.
I dubbi sull'iniziativa e il rischio di strumentalizzazione
Per onestà intellettuale, va ammesso che non tutti hanno accolto l'invito di Anthropic con favore: l’autore cattolico Luke Burgis, per esempio, ha dichiarato su X di aver rifiutato «per principio», ammonendo i follower sul fatto che le aziende di intelligenza artificiale «stanno creando una frattura tra i cristiani». Il timore di una strumentalizzazione è legittimo, e lo stesso Washington Post ha osservato che secondo alcune fonti le discussioni hanno turbato i ricercatori presenti, scossi dalla portata di ciò che si sta costruendo. Anthropic, da par suo, ha comunicato che il vertice di marzo è il primo di una lunga serie che includerà anche rappresentanti dell'ebraismo, dell'islam, dell'induismo ed anche di tradizioni filosofiche.
L'impatto sociale dei chatbot e la nuova sfida educativa
Al di là del giudizio su questa singola iniziativa, la vicenda pone una questione più ampia del singolo incontro vissuto all’ombra della Silicon Valley: quando centinaia di milioni di persone si rivolgono a un chatbot per ricevere conforto, consigli, perfino risposte su questioni ultime, il modo in cui quel software è stato "formato" diventa un fatto educativo di portata enorme. Google e OpenAI sono già finite al centro di casi giudiziari perché utenti vulnerabili hanno subito danni dopo interazioni con i loro sistemi; il linguaggio stesso usato dai tecnici di Anthropic — formazione morale, sviluppo spirituale, crescita — è preso in prestito dal vocabolario dell'educazione cristiana e della cura pastorale…non è detto che questo utilizzo sia sempre appropriato, ma sarebbe un errore alzare i muri difensivi, pensando, per esempio, che quella di Anthropic sia una semplice sparata comunicativa.
La domanda che resta aperta è se le tradizioni religiose e filosofiche, chiamate a dare il proprio contributo, sapranno farlo con la competenza e autonomia necessarie, senza diventare semplice “ornamento” di decisioni già prese. È una sfida che riguarda in primo luogo le comunità educanti — scuole, parrocchie, università — che formano persone in carne e ossa: comprendere come funziona la "formazione" di una macchina è una forma di alfabetizzazione ormai indispensabile per chi ha a cuore l'educazione di chi è davvero umano.
© RIPRODUZIONE RISERVATA






