ChatGpt Health? Curare non è solo calcolare
La nuova interfaccia dedicata che consente di caricare cartelle cliniche e integrare dati sanitari personali, segna un momento di svolta epocale (e potenzialmente inquietante) nella storia della medicina digitale

L’annuncio recente da parte di OpenAI del lancio di “ChatGpt Health”, una nuova interfaccia dedicata che consente agli utenti di caricare cartelle cliniche, connettere dispositivi indossabili e integrare dati sanitari personali, segna un momento di svolta epocale – e potenzialmente inquietante – nella storia della medicina digitale. Se fino a ieri l’interazione con l’intelligenza artificiale generativa in ambito sanitario si limitava a interrogazioni generiche, simili a quelle rivolte a un motore di ricerca, oggi assistiamo a una vera e propria compenetrazione tra i dati biologici più intimi dell’individuo e i modelli probabilistici di linguaggio. Questa evoluzione, riportata con enfasi da testate come la Bbc e The Verge, impone una riflessione urgente che trascenda il mero entusiasmo tecnologico per abbracciare le complesse sfide bioetiche e, ancor più specificamente, “algoretiche” che tale paradigma comporta.
Al cuore della questione vi è la tensione ontologica tra la natura stocastica dei Large Language Models (Llm) e la necessità di determinismo e accuratezza fattuale che la pratica medica esige. L’algoretica, intesa come l’etica applicata agli algoritmi, ci costringe a interrogarci sulla validità epistemologica di un sistema che non “conosce” la medicina ma predice la sequenza di parole più probabile in risposta a un input. Nonostante le rassicurazioni di OpenAI riguardo all’isolamento dei dati sanitari e all’esclusione di questi ultimi dal training dei modelli futuri, il rischio delle cosiddette “allucinazioni” rimane una spada di Damocle. Un errore algoritmico nella stesura di un riassunto clinico o nell’interpretazione di un esame diagnostico non è un semplice “bug” software, ma una potenziale fonte di iatrogenesi digitale. La plausibilità sintattica delle risposte fornite da ChatGpt può indurre nell’utente non esperto una falsa percezione di autorevolezza, portando a forme pericolose di auto-diagnosi o a una gestione terapeutica fai-da-te priva di supervisione critica.
Sul piano strettamente bioetico, l’integrazione di dati sanitari sensibili in piattaforme proprietarie solleva interrogativi radicali sulla sovranità del dato e sulla privacy. Sebbene l’infrastruttura prometta conformità agli standard Hipaa e una cifratura avanzata, la centralizzazione di una tale mole di informazioni biologiche in mano a un’entità privata commerciale rappresenta un rischio sistemico senza precedenti. La storia recente della tecnologia ci insegna che le policy sulla privacy sono fluide e soggette a modifiche unilaterali; affidare i segreti del proprio corpo a un “black box” algoritmico richiede un atto di fede che mal si concilia con il principio di precauzione. Inoltre, vi è il rischio concreto di esacerbare le disuguaglianze sanitarie: se questi strumenti avanzati fossero ottimizzati prevalentemente su dataset occidentali o accessibili solo tramite abbonamenti premium, si creerebbe una frattura insanabile tra chi può permettersi un “assistente sanitario digitale” e chi è relegato a servizi tradizionali sempre più saturi.
Ancor più profonda è la preoccupazione riguardante l’erosione della relazione medico-paziente, pietra angolare dell’ippocratismo. La medicina non è mera elaborazione di dati ma un’arte ermeneutica che si fonda sull’empatia, sull’intuizione e sul contesto biografico del sofferente, elementi che nessun algoritmo, per quanto sofisticato, può replicare. L’interposizione di un’interfaccia conversazionale rischia di ridurre il paziente a una somma di parametri e il medico a un mero validatore di output automatizzati, svuotando l’atto clinico della sua essenza umanistica. Delegare la spiegazione di una diagnosi complessa o la gestione di una terapia cronica a un chatbot, per quanto efficiente, significa abdicare al dovere etico dell’accompagnamento e della cura intesa come relazione interpersonale.
In conclusione, il lancio di ChatGpt Health non deve essere accolto con luddismo pregiudiziale ma nemmeno con acritica accettazione. È imperativo che la comunità scientifica, i legislatori e la società civile vigilino affinché l’innovazione tecnologica rimanga un supporto strumentale al giudizio umano e non un suo sostituto. La sfida dei prossimi anni non sarà solo tecnica ma profondamente filosofica: definire i confini dell’algoritmo per preservare la dignità della persona umana. Solo attraverso una rigorosa applicazione dei princìpi dell’algoretica potremo garantire che l’intelligenza artificiale in medicina sia, in ultima istanza, veramente “intelligente” e non solo computazionalmente potente.
© RIPRODUZIONE RISERVATA






