giovedì 11 maggio 2017
Che sia futuro o fantascienza l'evidente problema della sostituzione dei lavoratori con la tecnica apre a questioni etiche e antropologiche sul rapporto fra intelligenza e umanità
Post-umano, quale senso per le macchine?
COMMENTA E CONDIVIDI

La marcia inarrestabile verso il post-umano è segnata da un'ibridazione sempre più spinta tra uomo e macchina, che si configura come una vera e propria simbiosi. L'attenzione dei tecnici che guidano questa evoluzione è concentrata sul rafforzamento delle capacità cognitive dei post-uomini, mentre è scarso il loro interesse per altri aspetti: per esempio i problemi etici di una società costituita in parte da simbionti con caratteristiche mentali potenziate sono piuttosto trascurati. Non è difficile immaginare che, se si accetta il postulato che la conoscenza è sempre e comunque un bene e che quindi le capacità cognitive devono essere via via accresciute, nel prossimo futuro l'umanità potrebbe trovarsi divisa in individui di categoria A, potenziati, e di categoria B, non potenziati (per scelta o per mancanza di risorse), con l'inevitabile conseguenza che questi ultimi sarebbero dominati dai primi e con preoccupanti derive verso l'eugenetica.

Prendendo in mano le redini della propria evoluzione, gli umani attuerebbero la previsione fatta da Pierre Teilhard de Chardin più di sessant'anni fa, cioè che «il fine della natura è la fine della natura», previsione, e auspicio, adottati in seguito da molti futurologi e filosofi della tecnologia come Marvin Minsky, Hans Moravec, Max More, Raymond Kurzweil e altri ancora, i quali unanimi hanno vagheggiato e vagheggiano lo sviluppo di intelligenze artificiali pari o superiori a quella umana. Che queste intelligenze risiedano nei simbionti uomo-macchina o in entità puramente artificiali parrebbe non importare molto, se non per un aspetto peraltro decisivo: la coscienza. Infatti si può immaginare che nei simbionti ne permarrebbe almeno un residuo, mentre le macchine potrebbero esserne prive affatto.Il tema della coscienza delle macchine superintelligenti è stato oggetto di un convegno dal titolo Superintelligence: Science or Fiction?, organizzato di recente dal Future of life institute, Fli, un'organizzazione con sede a Boston che si propone di prevenire i pericoli derivanti dai progressi della tecnologia e in particolare dell'intelligenza artificiale (Ia). Tra i consulenti del Fli figura il celebre cosmologo Stephen Hawking, che tempo addietro lanciò, con qualche centinaio di colleghi scienziati, un allarme per i rischi connessi allo sviluppo eccessivo dell'Ia.

Tra gli esperti presenti al convegno figurava il filosofo australiano David Chalmers, particolarmente interessato al problema della coscienza. Chalmers è famoso per un articolo del 1995 dove affrontava l'arduo problema della percezione interiore: perché i processi fisici che percepiamo coi nostri sensi sono accompagnati dall'esperienza conscia? Perché, per esempio, quando captiamo una certa lunghezza d'onda viviamo l'esperienza di un rosso acceso? Sembra plausibile che l'esperienza soggettiva emerga da, o sia collegata a, un processo fisico, ma a quanto pare nessuno sa perché e come ciò accada. La tecnologia ci ha ormai circondato e invaso, quindi siamo già simbionti ciborganici ma, almeno per il momento, siamo ancora dotati di coscienza. Allo stesso tempo abbiamo costruito apparati totalmente artificiali, per esempio i computer e i robot, dotati di Ia ma non di coscienza. Alcuni ritengono che all'aumentare del livello cognitivo anche gli artefatti svilupperanno la percezione interiore, prima aurorale e poi sempre più robusta. Ma se questa ipotesi non si avverasse? Se cioè stessimo costruendo un mondo popolato da entità artificiali (iper) intelligenti ma prive di coscienza? A proposito di questa eventualità Chalmers afferma: «Non sono certo l'unico a ritenere che l'esperienza soggettiva, la coscienza, sia necessaria per poter attribuire un senso alla vita. Quindi un mondo senza coscienza non sarebbe certo un esito positivo, anzi forse sarebbe tra gli esiti peggiori possibili».

Allora come evitare l'avvento di un mondo governato da un'IA priva di coscienza e quindi incapace di generare senso? Per Chalmers, siccome non abbiamo una teoria della coscienza e non la comprendiamo, l'unica speranza di costruire entità artificiali dotate di coscienza è di dotarle di una Ia il più possibile simile all'intelligenza umana. È un auspicio sorretto solo da un'ottimistica fiducia nelle virtù dell'analogia, anche perché la nostra coscienza ha una storia evolutiva del tutto diversa da quella delle macchine e forse si è sviluppata perché presentava dei vantaggi per la sopravvivenza della nostra specie, problema che le macchine non hanno. Insomma non basta un'analogia strutturale, sembrerebbe necessario anche un parallelismo storico-evolutivo, che è affatto assente.Inoltre, come si potrebbe accertare la presenza della coscienza in un artefatto? A una domanda diretta la macchina potrebbe rispondere affermativamente, ma come potremmo crederle? Anzi, come potremmo sapere in primo luogo se avesse capito la domanda? Agli altri umani concediamo la coscienza senza esitazione sulla base di un'analogia immediata, spontanea e generosa, che non ha bisogno di ragionamenti o di analisi anatomiche o fisiologiche.

Ma è difficile estendere alle macchine questo atteggiamento liberale.Se, come ha sostenuto Minsky con eloquenza, ma anche con una certa spietatezza, siamo destinati nel nostro cammino verso il post-umano a essere soppiantati dalle macchine, o a trasformarci gradualmente in macchine, allora il mondo che si prepara potrebbe essere un mondo senza coscienza e senza soggettività. Chi si porrebbe allora il problema del senso? Chi tenterebbe di trovarlo o almeno di cercarlo attraverso le storie, i miti, le narrazioni? Ma forse il problema del senso riguarda l'uomo vecchio, cioè noi, e non avrà più senso, appunto, per l'uomo nuovo, la macchina post-umana.

© Riproduzione riservata
COMMENTA E CONDIVIDI