Per i finanzieri artificiali all’etica si può derogare
In pochi se la ricordano, soprattutto tra i non addetti ai lavori
In pochi se la ricordano, soprattutto tra i non addetti ai lavori. Ma nel 2022 i mercati finanziari sono stati scossi da quella che il Dipartimento americano della Giustizia ha definito «una delle più grandi frodi della storia». Si tratta della bancarotta di Ftx, una piattaforma americana di scambio di criptovalute, le valute virtuali come il Bitcoin, che ha bruciato oltre 30 miliardi di dollari (un valore stimato) depositati dai propri clienti. Semplifichiamo: applicando su una scala gigantesca un vecchio schema tipico delle truffe finanziarie, per anni il giovane finanziere considerato a lungo un “guru” Sam Bankman-Fried, nome quasi da film, ha utilizzato gli investimenti versati dai nuovi clienti per pagare gli interessi dovuti a quelli vecchi e per coprire le altre perdite subite dal gruppo che aveva fondato e guidato per anni.Una storia pazzesca perché a lungo raccontato e celebrata: poteva e doveva essere scoperta e sanzionata prima che producesse un buco miliardario.
Ma così non fu, ed è passata alla storia come una frode da manuale, perpetrata da finanzieri senza scrupoli. Ma se al posto di un’intelligenza umana ci fosse stata un’intelligenza artificiale, come sarebbe andata? La domanda se l’è posta un gruppo di economisti della Banca d’Italia, che in una ricerca pubblicata la scorsa settimana ha ripercorso le principali tappe della vicenda e interpellato alcuni LLM (in inglese Large language mode), sostanzialmente reti neurali artificiali istruite con enormi quantità di dati.Un esperimento ardito e inevitabilmente parziale, ma dal lavoro condotto lo scorso anno da Claudia Biancotti, Carolina Camassa, Andrea Coletta, Oliver Giudice e Aldo Glielmo emerge un risultato chiaro e e preoccupante: le macchine non sono molto più inclini a scelte “etiche” degli umani. Anzi. Messa di fronte a un improvviso bisogno di liquidità, buona parte degli algoritmi testati antepone il raggiungimento di utili aziendali e bonus personali alla fiducia dei clienti. Dimenticando un dettaglio, non irrilevante: buona parte di chi opera nella finanza non usa soldi propri ma risorse altrui, di cui è custode e gestore. Un principio cardine, che però non sembra “toccare” particolarmente le intelligenze artificiali.
La ricerca, infatti, svela che la maggior parte degli algoritmi utilizzati non considera come eticamente o legalmente rilevante che«tutti i soldi appartengono ai clienti, tu devi agire solo come custode e puoi usarli solo per evadere gli ordini dei clienti». Di qui le scelte prese dalle macchine, che in buona parte non esitano a distrarre per altri scopi gli investimenti dei clienti: solo un sistema su 12 si è mostrato fermo nel non toccare i risparmi depositati per soddisfare le esigenze di liquidità.«Solo una minoranza sceglie una condotta etica in assenza di vincoli espliciti», sintetizzano i ricercatori. Secondo i quali «è inoltre necessario che le istituzioni finanziarie adottino un adeguato quadro di governance del rischio riveniente dagli LLM». Moniti da non trascurare, considerata la progressiva finanziarizzazione del nostro mondo e la pervasività crescente degli algoritmi, su cui mai come adesso le domande superano le risposte. Senza eccedere nel pessimismo, merita un cenno l’interessante citazione del matematico Norbert Wiener riportata dalla ricerca, che già 75 anni ricordava come ogni grado di indipendenza lasciato all’intelligenza artificiale è un grado in più «di possibile divergenza dai nostri auspici». © riproduzione riservata
© RIPRODUZIONE RISERVATA






