“Dottor Amie” batte i medici: è più empatico
giovedì 18 gennaio 2024
Uno studio in fase di prepubblicazione, cioè non ancora sottoposto a una revisione e lettura anonima da parte di altri studiosi, dal titolo Verso un'intelligenza artificiale diagnostica conversazionale, sta facendo notevolmente discutere tanto da aver meritato anche un articolo di commento su Nature. Secondo i ricercatori il loro chatbot basato su un modello linguistico di grandi dimensioni (Llm) sviluppato da Google avrebbe eguagliato e addirittura superato le prestazioni dei medici umani. Lo strumento automatico sarebbe stato più preciso dei medici di base certificati nella diagnosi di patologie respiratorie e cardiovascolari riuscendo ad acquisire, rispetto ai medici umani, una quantità simile di informazioni durante i colloqui con i pazienti, e avrebbe ottenuto un risultato migliore in termini di empatia. Alan Karthikesalingam, ricercatore clinico presso Google Health a Londra e coautore dello studio, ha detto a Nature che «a nostra conoscenza questa è la prima volta che un sistema di intelligenza artificiale conversazionale è stato progettato in modo ottimale per il dialogo diagnostico e l'anamnesi». Lo strumento è stato chiamato Articulate Medical Intelligence Explorer (Amie) e a detta degli stessi autori è ancora puramente sperimentale, e non è stato testato su persone con problemi di salute reali. Per testare il sistema, i ricercatori hanno arruolato 20 persone addestrate a impersonare i pazienti e hanno chiesto loro di avere consultazioni online basate su testi, sia con l'Amie che con 20 medici certificati. Non gli è stato detto se stavano chattando con un umano o con un bot. Gli attori hanno simulato 149 scenari clinici ed è stato chiesto loro di valutare la loro esperienza. Anche un gruppo di specialisti ha valutato le prestazioni di Amie e dei medici. Lo stesso Karthikesalingam ha dichiarato: «Vogliamo che i risultati siano interpretati con cautela e umiltà». Non si tratta quindi di tirare conclusioni o creare allarmi per la sostituzione dei medici, cosa che è e resterà impensabile, ma di cercare di capire cosa questo studio possa indicare, e di provare a interrogarsi sul significato di questi risultati. Da un lato, questo è uno dei pochi studi che si chiede se si possono sfruttare gli Llm per emulare la capacità di un medico di analizzare la storia medica di un paziente e usarla per arrivare a una diagnosi. Da quanto si legge nello studio, questa abilità non è solo difficile da insegnare ai medici ma anche alle macchine, specie agli Llm. Dall’altro «questo non significa in alcun modo che un modello linguistico sia migliore dei medici nella raccolta della storia clinica», afferma Karthikesalingam, perché – fa notare l’autore – i medici di base dello studio probabilmente non erano abituati a interagire con i pazienti tramite una chat testuale, il che potrebbe aver influito sulle loro prestazioni. Certamente uno strumento di questo tipo potrebbe essere utile se coadiuvasse il medico, ma non dovrebbe mai sostituire le interazioni con i medici, perché la medicina è molto più che raccogliere informazioni, è fondamentalmente un incontro umano con una compromissione esistenziale tra due persone: una che si definisce e riconosce come paziente e un’altra, il medico, che con questa fa un’alleanza terapeutica. Infine, l’algoretica ci chiede di considerare il fatto che se è vero che l’intelligenza artificiale generativa potrebbe rivoluzionare l’assistenza sanitaria questo cambiamento difficilmente vedrà risultati volti al bene di tutti se il controllo viene ceduto alle grandi aziende. © riproduzione riservata
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: