Agorà

Il caso. L’auto si guiderà da sola. Ma con quale etica?

Alberto Caprotti lunedì 25 gennaio 2016
​Anno 2030, l’automobile è profondamente cambiata. Dopo aver impostato automaticamente il percorso, stiamo tornando a casa a bordo della nostra vettura a guida autonoma. Che si avvia da sola, svolta, accelera e frena senza bisogno di alcun intervento umano. All’improvviso però, un gruppo di persone attraversa la strada. Non c’è tempo né modo per evitare di investirle. A meno di sterzare violentemente e far schiantare l’auto contro un muro, mettendo a repentaglio la nostra vita. Come reagirà il software di controllo? Cosa deciderà di fare insomma il computer che in quel momento sta guidando al posto nostro? Ferire o ferirsi, la libera scelta, l’etica della robotica, sempre che esista. O che qualcuno nel frattempo l’abbia inventata. Sono interrogativi che fino a ieri erano da film di fantascienza. E che invece oggi sono quanto mai attuali, visto lo sviluppo rapidissimo della tecnologia che riguarda le auto a guida autonoma, già in circolazione a livello sperimentale in California, in Svezia e in altri Paesi.Sul tema, e sui problemi che propone anche a livello normativo, si è aperto un dibattito soprattutto negli Stati Uniti dove questo tipo di vetture sono già considerate come quasi “normali” sulle strade comuni. E dove lo stesso presidente Barack Obama ha recentemente dichiarato di voler inserire nella proposta di budget per il 2017, uno stanziamento di 4 miliardi di dollari per 10 anni dedicato alle “driverless car”.Un’inchiesta del Wall Street Journal ha concluso che questo tipo di vetture «dovranno avere una propria coscienza, e un’etica a cui affidarsi in caso di pericolo che possano guidarle nelle situazioni in cui una persona agirebbe seguendo il proprio istinto». Lo spunto nasce da una ricerca condotta da un gruppo di psicologi che lavorano per il Massachusset Institute of Tecnology, l’Oregon University e la School of Economics di Tolosa. Partendo dal presupposto scientifico secondo il quale è difficilissimo ottenere un algoritmo che porti un’automobile a gestire dilemmi morali, i ricercatori sostengono che le vetture a guida autonoma «dovranno conoscere i fondamenti dell’utilitarismo», ovvero di quel ragionamento «che porta un umano a sacrificare una vita anziché molte vite». Al di là della difficoltà tecnologica di “insegnare” a una centralina elettronica a pensare e a scegliere in situazioni imprevedibili e diverse tra loro, resta da superare lo scoglio di un’altra scelta. Riportando i dati di un sondaggio secondo il quale il 75% degli intervistati ritiene moralmente giusto evitare i pedoni (ma anche che solo il 65% di loro considera corretto che le “driveless car” debbano essere necessariamente programmate per farlo), la ricerca si chiede: «Chi acquisterebbe un’auto programmata per sacrificare il suo proprietario?».Già molti anni fa Philip K. Dick nel suo “Do androids dream of electric sheep?”, che ispirò Blade Runner, ipotizzava un futuro nel quale il confine tra umani e androidi, robot mossi da intelligenza artificiale, era estremamente labile. E dove gli esseri sintetici erano capaci di provare sentimenti, oltre che eseguire movimenti. L’auto che guida da sola ripropone gli stessi ipotetici scenari. Ma se siamo ancora lontani dal sapere come verranno divise le responsabilità civili e penali di un incidente (la casa costruttrice, chi è a bordo della vettura anche se non guida, o chi altri?), siamo lontanissimi dal risolvere la questione morale che il futuro della guida autonoma propone. Un interrogativo che nemmeno Alberto Broggi, presidente del VisLab di Parma, l’unico centro italiano dove da molto tempo questo tipo di auto sono studiate, riesce a risolvere: «Dobbiamo iniziare a contare le vite? A dare dei pesi e delle priorità?», si chiede lo studioso.Quello che al momento pare difficile da smentire è che le auto del futuro che si muovono grazie a un’intelligenza artificiale abbiano bisogno dell’intervento di un guidatore per essere davvero sicure. Lo rivelano i rapporti di sette compagnie a cui la Motorizzazione della California ha rilasciato l’autorizzazione di verificare dei prototipi sulle strade pubbliche. Dai rapporti emerge che spesso, durante i test, un guidatore ha dovuto prendere il comando delle auto robot per problemi tecnologici o di sicurezza.Ma l’aspetto più interessante lo rivela l’ultimo rapporto mensile di Google sulle auto, secondo il quale i veicoli «stanno imparando a essere più prudenti se ci sono bimbi nelle vicinanze». La compagnia spiega infatti di aver sfruttato la festività di Halloween per insegnare alle sue vetture a “riconoscere” i bambini, anche se sono mascherati, e a guidare con maggiore cautela in loro presenza, tarando appositamente le telecamere preposte a tale segnalazione. «Se i sensori riconoscono bimbi, in maschera o meno, il software capisce che possono comportarsi diversamente dagli adulti. I loro movimenti possono essere meno prevedibili – attraversano improvvisamente la strada, o corrono lungo un marciapiede – e la loro presenza può essere nascosta dai veicoli parcheggiati». Anche l’intelligenza artificiale di un’automobile dunque – non avendo (al momento) i cervelli elettronici valori etici da spendere – si baserà sempre e solo su una serie di opzioni programmate dall’uomo. Che si tratti di una consolazione o di una minaccia, questo solo il tempo potrà stabilirlo.