sabato 6 aprile 2024
Il diritto internazionale prova a dare regole ma l’etica rimane centrale. Il G7: costruire ambienti informatici aperti, partendo dai dati da usare per l’addestramento iniziale delle macchine
Giuseppe Veneziano, “Il pensatore di Novembre”, 2024

Giuseppe Veneziano, “Il pensatore di Novembre”, 2024 - Art Design/Fabbrica Eos

COMMENTA E CONDIVIDI

Il 15 marzo, a Trento, si è conclusa la riunione ministeriale “Industria, tecnologia e digitale”, sotto la presidenza italiana del G7, con l’approvazione di una dichiarazione sulle regole di governo dell’intelligenza artificiale. I membri del G7 hanno espresso la volontà di sviluppare i sistemi di intelligenza artificiale in modo etico e coerente con i principi che sono alla base della democrazia, per favorire la coesione, la resilienza e il benessere della società. La dichiarazione include una sezione dedicata all’intelligenza artificiale nel settore pubblico, in cui si auspica la costruzione di un ambiente “aperto” e abilitante per lo sviluppo e il rilascio di sistemi sicuri e affidabili. In linea con lo spirito del “Regolamento” recentemente approvato dal Parlamento Europeo, la dichiarazione ribadisce l’approccio basato sull’analisi dei rischi dei sistemi di intelligenza artificiali. Ma cosa significa, esattamente, realizzare un ambiente aperto? La dichiarazione non entra nel dettaglio di questa affermazione ma possiamo provare a darne un’interpretazione plausibile, basandoci su concetti ampiamente condivisi dalla comunità informatica.

Partiamo dal fatto che un sistema di intelligenza artificiale è realizzato mediante programmi software e successivamente addestrato utilizzando una gran quantità di dati, con il coinvolgimento di molte persone che ne verificano e ne correggono il funzionamento. Ad esempio, per insegnare a un sistema a riconoscere i gatti è necessario raccogliere e usare moltissime immagini e poi assicurarsi che funzioni correttamente. Il sistema non si deve far confondere dall’immagine di un cane, durante il processo di riconoscimento di un gatto. I programmi software usati possono essere disponibili pubblicamente, e in questo caso si parla di software aperto, oppure di proprietà esclusiva di chi li ha scritti, e in questo caso si parla di software chiuso o proprietario.

Anche i dati di addestramento possono essere pubblici o proprietari. L’auspicio del G7 di costruire un ambiente aperto e abilitante implica, quindi, la disponibilità dei programmi software necessari per sviluppare i sistemi di intelligenza artificiale. Per essere tecnicamente accurati, però, non è sufficiente avere la disponibilità dei programmi software ma sono essenziali i dati usati per l’addestramento iniziale, o meglio, i parametri calcolati sulla base di questi dati. Nel caso dei sistemi attuali, il numero di questi parametri è enorme, si parla di 175 miliardi di parametri (B125) per ChatGPT 3.5, mentre ChatGPT 4 potrebbe averne 100.000 miliardi (T100), come ha affermato Andrew Feldman, CEO di Cerebras, in una conversazione con OpenAI. Esiste una significativa differenza tra programmi software e parametri. I primi si basano su algoritmi, spesso pubblicati nella letteratura scientifica specializzata. Negli ultimi anni la scienza ha fatto enormi passi avanti nella scoperta di algoritmi sempre più sofisticati, basati su complesse tecniche matematiche e statistiche. Non serve essere esperti in questi campi per scrivere un programma software a partire da uno di questi algobraio ritmi. Non solo, sul web è possibile trovare tutorial e librerie che rendono possibile questa attività con un minimo di conoscenze informatiche. Calcolare i parametri è invece un’altra storia. Sono necessari calcolatori molto potenti e un’enorme quantità di tempo di calcolo. Ad esempio, l’addestramento di ChatGPT 3 è durato 15 giorni, usando in parallelo 10.000 unità di calcolo, pari a circa quattro milioni di ore di calcolo. Per inciso, una quantità così elevata di calcolo richiede un consumo energetico che ha effetti ambientali significativi, per non parlare del costo economico necessario per ottenere tali risorse computazionali.

Un articolo scientifico pubblicato nel febbraio 2024 da Sayash Kapoor dell’Università di Princeton e da altri 24 scienziati internazionali ha esaminato l’impatto sulla società dei “modelli fondazionali aperti”. Questi modelli sono impiegati dai sistemi di intelligenza artificiale che usano tecniche di apprendimento automatico basate su grandi quantità di dati. Si tratta di un caso particolare dei “modelli per finalità generali” citati nell’AI Act, in grado di svolgere con competenza un’ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è poi immesso sul mercato. L’articolo mette in discussione l’assunto secondo il quale la pubblica disponibilità dei modelli fondazionali favorisce l’avanzamento scientifico del settore e la crescita di un’economia basata sul loro impiego senza significativi effetti collaterali. Al contrario, gli autori evidenziano l’esistenza di rischi relativi alla sicurezza e alla disinformazione. Rischi dovuti principalmente alla disponibilità di parametri il cui calcolo, come abbiamo già notato, esige ingenti risorse computazionali. Si tratta di un patrimonio informativo che consente di ridurre enormemente i costi necessari per la realizzazione di un sistema di intelligenza artificiale, facilitando e anzi favorendo chi intende farne un uso malevolo. Ci troviamo perciò di fronte a un classico dilemma etico: rendere pubblica e facilmente accessibile una tecnologia che può favorire la crescita della società oppure mantenerla segreta in modo da evitare che sia usata contro la società stessa. Un simile dilemma è sorto per altre tecnologie potenzialmente pericolose, tra cui quella atomica. La tendenza attuale è favorire un’apertura parziale, mantenendo segreti solo alcuni elementi cruciali, i parametri nel caso dei modelli fondazionali. Questa è la strada seguita da Mistral, anche se il recente ingresso della Microsoft nel capitale sociale della società francese che ha sviluppato l’omonimo sistema di intelligenza artificiale lascia presagire un cambio di strategia.

Allargando l’orizzonte, è necessario prendere in considerazione il tema della sovranità digitale e, in particolare, di quella europea. L’entrata in vigore di numerosi regolamenti sul tema dei servizi digitali, dell’accesso ai dati e della protezione della privacy, ha posto le basi per ciò che viene indicato come il perimetro tecnologico ed economico dell’Unione Europea, una risposta alle politiche a volte aggressive di altri attori internazionali. L’enunciazione e la tutela dei diritti dei cittadini europei ha dato finora grande rilievo alla libertà, nelle varie modalità in cui si manifesta: libertà di movimento, libertà di circolazione dei capitali, e più in generale, libertà delle persone. Lo sviluppo dei sistemi di intelligenza artificiale solleva numerosi interrogativi nel contesto geopolitico, relativi ai rischi intrinsecamente legati al loro uso. La scienza può, e deve, fornire gli strumenti concettuali per consentire alla politica di valutare questi rischi e mettere in atto adeguate strategie di mitigazione.

© Riproduzione riservata
COMMENTA E CONDIVIDI