Anche l’Oms ora scopre l’«algoretica» Paolo benanti
giovedì 25 maggio 2023
Il 16 maggio l’Organizzazione mondiale della Sanità (Oms) ha rilasciato una dichiarazione con la quale ha invitato alla cautela nell’uso di modelli linguistici di grandi dimensioni (Llm) generati dall’intelligenza artificiale (AI) nella cura e gestione della salute. Gli Llm sono i sistemi di AI che sottostanno ad alcune delle piattaforme più note come ChatGpt, Bard e Bert. Questi sistemi imitano l’elaborazione e la produzione del linguaggio umano e sembrano a volte capaci di una certa qual misura di comprensione (anche se il tema è molto discusso). La rapida diffusione pubblica e il crescente uso sperimentale per scopi sanitari degli Llm sta generando un notevole entusiasmo intorno al potenziale di supporto alle esigenze di salute delle persone. L’Oms ricorda con forza come sia indispensabile esaminare attentamente i rischi quando si utilizzano i Llm per migliorare l’accesso alle informazioni sanitarie come strumento di supporto alle decisioni o anche per migliorare la capacità diagnostica in contesti con scarse risorse per proteggere la salute delle persone e ridurre le disuguaglianze. Sebbene l’Oms si dica entusiasta dell’uso appropriato delle tecnologie per supportare operatori sanitari, pazienti, ricercatori e scienziati, teme che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia medica non si applichi con le Llm. L’adozione precoce di sistemi non testati potrebbe portare a errori degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell’IA e quindi compromettere (o ritardare) i potenziali benefici a lungo termine e gli usi di tali tecnologie in tutto il mondo. Sono diverse, per l’Oms, le preoccupazioni che richiedono una rigorosa supervisione, necessaria affinché le tecnologie siano utilizzate in modo sicuro, efficace ed etico. Bisogna avere contezza che i dati utilizzati per addestrare l’IA possono essere parziali, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusività. Inoltre, il fatto che gli Llm generano risposte che possono apparire autorevoli e plausibili ma che possono contenere gravi errori può creare danni o pericolo alla salute delle persone. Gli Llm possono essere addestrati su dati per i quali potrebbe non essere stato fornito il consenso per tale uso, e potrebbero non proteggere i dati sensibili (compresi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta, creando un grave danno alla tutela della privacy. Infine, non si può escludere anche un uso malevolo di questi strumenti per generare e diffondere disinformazione altamente convincente sotto forma di testi, audio o video che è difficile per il pubblico distinguere da contenuti sanitari affidabili. La posizione dell’Oms appare equilibrata: pur impegnandosi a sfruttare le nuove tecnologie, raccomanda ai responsabili politici di garantire la sicurezza e la protezione dei pazienti, ribadendo l’importanza di applicare i princìpi etici e una governance appropriata alle AI. Anche per l’Oms la questione è algoretica. © riproduzione riservata
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: