Neurotecnologie sempre più sofisticate, ora servono regole

Stimolazione transcranica, impianti cerebrali, interfacce cervello-computer: le tecnologie che consentono di raccogliere dati neurali correlabili da algoritmi avanzano rapidamente. Tanto da richiedere una governance
March 16, 2026
Neurotecnologie sempre più sofisticate, ora servono regole
Foto ICP
Le neurotecnologie stanno avanzando molto rapidamente: oltre a quelle più note quali l’elettroencefalogramma e la risonanza magnetica, sono utilizzate anche la stimolazione transcranica profonda esterna e interna al cervello (con impianti cerebrali) e l’interfaccia cervello-computer. Con queste tecnologie, alcune nella versione “indossabile” (caschetti o cuffie), si può registrare l’attività cerebrale e si possono raccogliere “dati neurali” correlabili da algoritmi per interpretare e predire pensieri e intenzioni (“leggere la mente”), oltre che interferire con i processi mentali (“scrivere la mente”).
Si tratta di tecnologie più o meno invasive nel corpo e nella mente, che possono avere diverse applicazioni. Di grande importanza le applicazioni nell’ambito della salute, con risultati terapeutici per trattamenti di pazienti affetti da morbo di Parkinson, depressioni farmacologico resistenti, epilessie. In Europa tali tecnologie rientrano nei dispositivi medici, e hanno una precisa regolazione per la garanzia di sicurezza ed efficacia, oltre al dovere di fornire adeguate informazione ai pazienti sui rischi seppur incerti (es. alterazioni della personalità).
Ciò che solleva nuovi interrogativi sono le applicazioni fuori della medicina: nell’ambito dell’educazione e del lavoro (caschetti che monitorano la concentrazione), dell’intrattenimento e del benessere (ad es. supporto di meditazione), del neuromarketing (rilevazione di preferenze dei consumatori), della giustizia penale (predizioni di intenzioni criminali). Forse si arriverà ad applicazioni nella vita quotidiana, quali le interazione con smartphone non più nelle modalità touch o vocale ma tramite pensiero.
Si tratta di applicazioni già presenti in alcuni Paesi del mondo, come la Cina. Quale sarà l’impatto fisico-psichico sui soggetti e sulla società? Che cosa può comportare per studenti e lavoratori essere costantemente monitorati in funzione dell’efficienza mentale? Cosa implica la possibile intrusione anche nascosta nel “foro interno”?
Le domande etiche esigono una risposta che inevitabilmente rimanda ai valori della dignità umana, identità personale, integrità fisica e mentale, autonomia, responsabilità, giustizia. Bisogna porre attenzione, sul piano antropologico, ai rischi del riduzionismo neurologico (che riduce l’uomo al suo cervello) e delle neurodiscriminazioni, con particolare attenzione alle persone vulnerabili (minori, anziani, persone con disabilità cognitiva). Va difesa la “privacy cerebrale” e la “libertà cognitiva”, ossia l’intimità dei pensieri consci e inconsci. È urgente un pensiero etico “forte” di fronte all’avanzamento rapido e alle incertezze, a causa della mancanza di evidenze e di studi sugli effetti a breve e lungo termine. Solo ora stiamo acquisendo la consapevolezza dei danni dell’abuso dei social network: con le neurotecnologie dobbiamo “anticipare” la riflessione etica per evitare applicazioni che producano danni gravi e irreversibili all’uomo e alla società.
Ampio il dibattito giuridico. Alcuni ritengono indispensabile formulare “neurodiritti” specifici (la posizione emergente nelle Raccomandazioni dell’Unesco del 14 novembre 2025); altri ritengono che i diritti umani già includano queste fattispecie e solo necessitino nuove interpretazioni evolutive della Corte europea dei diritti umani (la posizione emersa al Consiglio d’Europa, in un incontro tra esperti nel novembre 2025).
In ogni caso, nell’orizzonte dei diritti umani (impliciti o espliciti), sempre più risulta urgente elaborare una “governance” in Europa sul tema, ossia linee guida etiche condivise sulla cui base iniziare a pensare a una regolazione europea e/o nazionale. Le regole sulla protezione dei consumatori non sono sufficienti a coprire l’uso di queste tecnologie e rimanere senza regole è pericoloso, visti i considerevoli investimenti di aziende private per l’avanzamento e la diffusione delle tecnologie nel mercato.
È urgente una regolazione che espliciti l’umano-centrismo, la proibizione delle tecnologie più pericolose (ad es. la stimolazione profonda con impianti cerebrali per scopi non medici) e la definizione di requisiti etici di valutazione del rischio anche per le applicazioni non mediche, con adeguate salvaguardie. Si tratta di applicare il principio di precauzione che garantisca la proporzionalità benefici/rischi da parte di chi commercializza i prodotti e ripensare il consenso informato nel settore non medico (ossia come informare adeguatamente i consumatori dei rischi e verificarne la consapevolezza).
È indispensabile un coinvolgimento della società per introdurre una coscienza critica dei problemi emergenti dallo sviluppo delle neurotecnologie.
Laura Palazzani è ordinario di Filosofia del diritto alla Lumsa di Roma
Puoi abbonarti alla newsletter settimanale gratuita di Avvenire su Vita, Bioetica e Cura CLICCANDO QUI: potrai registrarti ad Avvenire.it e poi iscriverti per l’invio settimanale. Se sei già registrato ad Avvenire.it è sufficiente introdurre le tue credenziali e poi abbonarti alla newsletter.

© RIPRODUZIONE RISERVATA