Il laboratorio senza ricercatore: LabClaw e il rischio della “biologia automatizzata”
Sviluppato a Stanford e Princeton, il sistema consente non solo di svolgere ricerche complesse in totale autonomia, grazie all’IA, ma anche svilupparne le evidenze. Ma siamo sicuri che sarà usato solo per scoprire più rapidamente nuovi farmaci?

Il dibattito pubblico sull’Intelligenza artificiale si è incagliato in uno schema ripetitivo: chatbot che scrivono tesi, algoritmi che sostituiscono impiegati, deepfake che alterano elezioni. Rischi reali, per carità, ma che tendono a oscurare una minaccia di ordine radicalmente diverso, che si consuma non negli schermi degli utenti comuni ma nei corridoi silenziosi dei laboratori di ricerca. È qui che l’automazione agentiva dell’IA comincia a porre domande per le quali non abbiamo ancora nemmeno i termini etici adeguati.
LabClaw è uno di questi termini nuovi. Sviluppato da ricercatori di Stanford e Princeton come strato operativo per agenti biomedici autonomi, il sistema è costruito sopra OpenClaw – un agente open-source capace di eseguire compiti reali attraverso modelli linguistici di frontiera come Claude o Gpt – e offre oltre duecentoquaranta competenze pronte all’uso per flussi di lavoro di ricerca biomedica: dalla robotica da laboratorio ai sistemi Lims ed Eln, dalla genomica e proteomica alla scoperta di farmaci e alla gestione di protocolli scientifici. L’agente può controllare in autonomia strumentazione multipla – robot da pipettamento, lettori di piastre, pompe – e operare come agente persistente che non dorme mai, monitorando continuamente i feed degli strumenti, interpretando segnali multimodali e innescando risposte agentive senza intervento umano.
È un’architettura pensata per accelerare la scoperta scientifica, e in questo senso è genuinamente promettente. Ma il problema etico non risiede nell’intenzione dei progettisti: risiede nella struttura del sistema stesso, e nella sua inesorabile duplicità d’uso.
Il punto critico, che troppo spesso sfugge alla riflessione pubblica, è questo: un sistema capace di automatizzare la ricerca biomedica legittima è, per definizione, un sistema capace di automatizzare la ricerca biomedica illegittima. Non si tratta di una vulnerabilità secondaria da correggere: è la caratteristica costitutiva di ogni tecnologia dual-use. L’uso dell’IA rende più semplice la codificazione di sequenze pericolose, poiché non sono necessari laboratori strutturati, ingenti investimenti e un’expertise avanzata. Le barriere all’ingresso si abbassano, e con esse si abbassa la soglia che separava la biologia da laboratorio dalla biologia come strumento di offesa.
I dati disponibili non lasciano spazio all’ottimismo facile. Uno studio del 2025 ha mostrato che un modello di IA disponibile al pubblico ha superato il 94% dei virologi con dottorato in specifici test di competenza. L’Intelligenza artificiale riduce le difficoltà tecniche nella progettazione di agenti biologici più efficaci e rende più facilmente attuabili la stabilizzazione, il controllo della dispersione e il potenziamento della virulenza. OpenAI stessa ha classificato il suo agente ChatGpt come strumento ad «alto rischio biologico», riconoscendo che potrebbe aumentare la probabilità di attacchi da parte di attori non statali e che, «a differenza delle minacce nucleari o radiologiche, per quelle biologiche l’ostacolo non sono i materiali ma la conoscenza».
Un sistema come LabClaw non si limita a fornire conoscenza: fornisce esecuzione. Automatizza non solo il ragionamento scientifico ma l’intera catena operativa – dalla progettazione del protocollo alla gestione degli strumenti, fino alla sintesi e all’analisi dei risultati. È la differenza tra un manuale di chimica e una fabbrica chimica gestita da un algoritmo. La scala e la velocità cambiano la natura del rischio.
La governance globale non è attrezzata per questa trasformazione. I controlli sulle esportazioni di tecnologie nucleari hanno richiesto decenni per essere costruiti; quelli sulle biotecnologie sono ancora embrionali, e quelli sull’IA agentica applicata alla biologia sono, di fatto, inesistenti. Per gestire al meglio questa tecnologia, e contenere le minacce collegate, il mondo della difesa e della sicurezza deve agire in sinergia con la comunità scientifica e gli esperti di ingegneria e Intelligenza artificiale.
Ma questa sinergia, per essere efficace, richiede prima di tutto una consapevolezza pubblica, che stenta ancora a formarsi.
Finché il dibattito sull’IA si concentra sui chatbot e sulle licenze artistiche, il laboratorio senza ricercatore continuerà a lavorare nell’ombra della nostra disattenzione. L’algoretica ci chiede di spostare lo sguardo.
© RIPRODUZIONE RISERVATA






