Medicina digitale? La gente vuole una mano da stringere
Le formidabili potenzialità dell’intelligenza artificiale nella medicina non suscitano tra le persone comuni la fiducia che ci si potrebbe attendere. Anzi. Una ricerca sulle aree periferiche della Polonia mostra una “resistenza umanistica” da ascoltare con attenzione

L’avvento dell’intelligenza artificiale in medicina viene spesso narrato con i toni trionfalistici di una rivoluzione inevitabile, un futuro scintillante fatto di diagnosi predittive infallibili e personalizzazioni terapeutiche al millimetro. Tuttavia, quando si sposta lo sguardo dai laboratori di ricerca alle sale d’attesa della medicina di base, specialmente in contesti lontani dai grandi hub tecnologici, emerge una realtà molto più sfumata.
Un recente studio condotto nelle aree rurali e nelle piccole città della Polonia ci offre uno specchio prezioso per riflettere non tanto sulla fattibilità tecnica dell’IA quanto sulla sua sostenibilità etica ed emotiva.
I dati raccolti offrono una fotografia nitida di quella che potremmo definire una “resistenza umanistica”. Nonostante le promesse di efficienza, l’atteggiamento prevalente tra i pazienti non è l’entusiasmo incondizionato bensì una cauta neutralità che spesso scivola nello scetticismo. È un dato che deve far riflettere chiunque si occupi di bioetica: quasi un terzo degli intervistati nutre sentimenti negativi verso l’introduzione dell’IA nel percorso di cura. Questo scetticismo non nasce da un rifiuto oscurantista del progresso ma da una paura ancestrale e profondamente umana: quella di essere ridotti a una stringa di dati, vittime di quella che la letteratura definisce uniqueness neglect, ovvero il timore che un algoritmo non possa comprendere l’unicità irripetibile della sofferenza del singolo.
Il cuore della questione etica risiede nella fiducia, un capitale invisibile ma essenziale per qualsiasi sistema sanitario. Lo studio rivela un dato allarmante: soltanto una minuscola frazione di pazienti, inferiore al 6%, si fiderebbe ciecamente di una diagnosi formulata esclusivamente da un’intelligenza artificiale. Anche ipotizzando la supervisione di un medico, una vasta fetta di popolazione rimane incerta, sospesa nel dubbio che la macchina possa offuscare il giudizio clinico. Questo ci dice che la tecnologia, per quanto avanzata, non possiede intrinsecamente l’autorità morale per curare. La legittimità della diagnosi non deriva solo dalla correttezza del calcolo probabilistico ma dall’assunzione di responsabilità che solo un essere umano può garantire.
Qui si inserisce la sfida centrale per una “Humanity 2.0”: evitare che il divario digitale diventi un divario di salute. L’accettazione dell’IA è fortemente correlata al livello di istruzione e all’età, creando il rischio concreto di un sistema a due velocità, dove le fasce più vulnerabili della popolazione si sentono estranee o minacciate dagli strumenti che dovrebbero aiutarle. La tecnologia non deve essere un monolite calato dall’alto ma uno strumento trasparente e spiegabile.
La lezione più profonda che emerge dalle campagne polacche è la richiesta, quasi un grido, di mantenere l’uomo al centro del circuito decisionale. L’86% dei pazienti considera fondamentale il supporto del personale medico nell’uso di queste tecnologie. Non si cerca un oracolo digitale, ma un “human-in-the-loop”: un modello in cui l’IA potenzia le capacità del medico senza mai sostituirne l’empatia e il discernimento etico. La medicina, in ultima analisi, rimane un atto di incontro tra due persone. L’intelligenza artificiale potrà anche processare i sintomi con velocità sovrumana ma, come ci ricordano questi pazienti, non potrà mai stringere una mano né farsi carico del peso di una diagnosi guardando il malato negli occhi. Il futuro della sanità digitale non sarà misurato dalla potenza dei suoi processori, ma dalla sua capacità di restare, ostinatamente, umana, cioè da una corretta algoretica.
© RIPRODUZIONE RISERVATA
Temi






