giovedì 25 maggio 2023
Anche imprenditori e addetti ai lavori hanno lanciato l’allarme sui rischi di un uso non controllato dell’IA. Ma è illusorio pensare che le imprese interessate possano auto-regolarsi
Perché serve un controllo pubblico che regoli l'intelligenza artificiale
COMMENTA E CONDIVIDI

L’attenzione mediatica attorno all’intelligenza artificiale procede per esplosioni e negli ultimi mesi ci ha investiti con ben due bombe. La prima, alla fine dell’anno scorso, il boom di ChatGPT, con la sua capacità di conversare incredibilmente umana. La seconda, nell’ultimo mese, lo tsunami dell’allarme: con una serie di petizioni hanno richiamato le aziende a frenare la corsa alle macchine “pensanti” e implorato i governi di imporre regole. Con l’importante novità, rispetto alle paure scatenate dall’emergere di altre tecnologie, che alcuni degli stessi imprenditori che sviluppano IA si sono schierati fra i più preoccupati. A questi timori si sommano le inquietudini degli insegnanti per i temi fatti dai robot e i timori di impiegati, segretari, contabili, (giornalisti?) di essere fagocitati da computer capaci di apprendere il loro lavoro in tempi record. È successo tutto molto alla svelta che forse conviene fare un piccolo passo indietro.

Un computer intelligente è una macchina in grado di apprendere dall’esperienza, in un modo che simula il cervello umano. Il riconoscimento facciale del nostro telefono, che impara ogni nuova espressione del nostro viso, il controllo ortografico delle email, si arricchisce di nuove parole ogni giorno, e Alexa e Siri che comprendono quello che diciamo: sono tutte applicazioni di IA. ChatGPT di OpenAI è diventato un caso globale, attirando milioni di utenti, perché è in grado di rispondere a domande in linguaggio colloquiale e di scrivere codici per computer. È questo il suo grande progresso rispetto agli assistenti vocali di Apple, Amazon e Google che, in confronto, sono “stupidi come sassi” (l’ha detto il Ceo di Microsoft Satya Nadella, ma l’abbiamo pensato in molti). Dal punto di vista tecnologico i chatbot applicano il modello del “linguaggio di grandi dimensioni” (Llm), dove una “rete neurale” che imita i neuroni umani, viene addestrata riversandovi miliardi di testi.

Il risultato sono risposte, persino intere conversazioni, fluide e convincenti. Ma la facilità di linguaggio spesso nasconde errori madornali. Alla domanda, in inglese, «chi è Elena Molinari», ChatGPT, dopo aver fornito qualche dato esatto, informa che ha vinto il premio «Giornalisti per l’integrazione». Lusinghiero, ma falso. Il premio non esiste. L’inesattezza fattuale è un primo problema legato all’utilizzo di un tipo di IA che apprende dal linguaggio in uso, sia perché può creare disinformazione, sia perché può essere manipolato per creare frodi. A evidenziare queste potenzialità, tanto da imporre uno stop temporaneo all’uso della piattaforma, è stato il garante della privacy italiano, che ha fatto proprio riferimento alla propensione di ChatGPT per le risposte imprecise, oltre ad osservare che «la mancata verifica dell’età espone i minori a ricevere risposte assolutamente inadeguate alla loro età e consapevolezza».

Un’altra istituzione che ha sollevato le sopracciglia di fronte ai Chatbots è l’Europol, che ha emesso un avviso internazionale sull’uso criminale di ChatGPT, che «elimina una linea di difesa fondamentale contro le e-mail di phishing fraudolente, rimuovendo evidenti errori grammaticali e di ortografia ». La polizia fa anche notare che i nuovi bot possono eseguire la scansione delle informazioni a disposizione su una persona sui social media e creare un’email credibile e su misura per carpire pin e numeri di carte di credito. Sono timori sui quali alcune aziende lanciate nella corsa al controllo di questo nuovo mercato tendono a sorvolare, evidenziando il passo avanti tecnologico che giustifica «investimenti pluriennali e multimiliardari », come quello recentemente annunciato da Microsoft in OpenAI. O da Google, che in Bard, già lanciato nel Regno Unito e negli Stati Uniti.

In effetti gli scenari possibili attorno all’utilizzo quotidiano dell’intelligenza artificiale – termine che esiste dal 1955 – non sono solo apocalittici. L’idea di poter delegare un compito noioso o complicato a una macchina, non con codici complicati, ma semplicemente chiedendole di farlo, è un sogno dell’umanità. Così come è un suo incubo ricorrente quello di macchine diaboliche e geniali che finiscono col controllare i loro creatori. In realtà la tesi accettata dagli scienziati è che i computer finora non sono veramente “intelligenti”, bensì analizzano in modo estremamente rapido quantità stratosferiche di informazioni, traendo conclusioni che simulano l’intelletto umano. L’af-fermazione di alcuni ricercatori di Microsoft di aver creato una macchina che «può fare tutto quello che un cervello può fare» e che dà segni di «comprensione» ha generato estremo scetticismo. Per ora la preoccupazione più pressante è rendere l’IA meno vulnerabile a errori e manipolazioni. Gli esperti assicurano che l’apprendimento per rinforzo, che implica fornire al sistema un feedback ogni volta che esegue un’attività, in modo che impari facendo le cose correttamente, pur essendo un processo lento, è il modo migliore di insegnare a un computer a trarre conclusioni.

L'ultima generazione di chatbot, però, non l’utilizza, limitandosi ad attingere praticamente dall’intera produzione scritta dell’umanità per poter prevedere che cosa viene dopo un testo fornito. Se l’input è: «Essere o non essere », è molto probabile che l’output sia: «Questo è il problema». Se l’input è un paragrafo razzista, il chatbot, se non ha “freni” programmati al suo interno, continuerà nello stesso stile. «Sospetto fortemente che presto su internet ci sarà un diluvio di video, immagini e audio deepfake», spiega Aravind Srinivas, uno dei fondatori di Perplexity, un’azienda di IA, usando il termine inglese per una falsità indistinguibile dalla verità. Srinivas è uno degli insider che ha suonato l’allarme, ricordando agli utenti che sarebbe ingenuo aspettarsi che le stesse imprese che non si sono auto-regolate per il controllo dei motori di ricerca o per mettere dei limiti all’uso dei social rallentino spontaneamente nello sprint allo sviluppo dell’IA. Ma le richieste di un quadro normativo chiaro per l’IA sono, sorprendentemente, caldeggiate anche da imprenditori libertari come Elon Musk, co-fondatore di OpenAi, o come Bill Gates, e proprio questa settimana Sam Altman, Ceo di OpenAi, ha portato il suo allerta al Congresso americano. «È necessario imporre delle licenze e dei test prima del rilasci di macchine oltre una determinata soglia di capacità – ha detto – perché se questa tecnologia va male, può fare molto male».

La Casa Bianca ha già detto di voler regolamentare la corsa allo sviluppo di un’intelligenza artificiale sempre più potente, e ha richiamato le aziende alla «responsabilità fondamentale di assicurarsi che i loro prodotti siano sicuri prima che vengano implementati o resi pubblici». Una speranza che, come insegna l’esperienza dei social, può diventare realtà solo se imposta da leggi e garanti. Poi c’è il capitolo occupazione. Un’app come Otter potrebbe rendere superflui gli stenografi, anche in tribunale, mentre Google Translate sta diventando sempre più sofisticata. Lo stesso Altman ha previsto «un forte impatto sui posti di lavoro che richiederà un’azione da parte del governo». Anche qui l’intelligenza artificiale può semplificare la vita. Uno studio di questo mese prevede che IA potrebbe svolgere il 39% delle attività domestiche entro un decennio. Compiti come fare la spesa prevedendo i bisogni di una famiglia potranno essere delegati, ad esempio, ma anche questi traguardi implicano riflessioni etiche, perché il costo delle nuove tecnologie non si traduca in un aumento della disuguaglianza nella disponibilità di tempo libero.

Una maggiore automazione della vita domestica potrebbe anche trasformarsi in un “assalto alla privacy”, come ha rilevato l’ultimo World Economic Forum a Davos, facendo notare che un assistente vocale intelligente «è in grado di ascoltare e registrare ciò che facciamo e diciamo, per riferire all’azienda che lo controlla». Altre le potenziali applicazioni della tecnologia, dalla codifica alla scoperta delle proteine, offrono motivo di ottimismo. McKinsey, ad esempio, stima che il 50-60% delle aziende abbia già incorporato nelle proprie operazioni strumenti come i chatbot, migliorando l’efficienza e la produttività. Ma la potenza di calcolo massiccia e immensamente costosa necessaria per addestrare e mantenere gli strumenti di intelligenza artificiale rappresenta una barriera sostanziale che potrebbe portare alla concentrazione del mercato. Il rischio della monopolizzazione è infatti un altro motivo di considerare con urgenza, a livello politico, le implicazioni di questa svolta tecnologica. Come discusso ancora a Davos, l’IA è troppo potente per essere lasciata nelle mani di poche aziende e i governi sono già in un enorme svantaggio come soli difensori dell’interesse pubblico. Il momento di agire è adesso.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: