http://www.avantionline.it/2016/10/asimov-e-la-google-car/#.WAmW3eiLTIUQualcuno ricorda le tre leggi della robotica dello scrittore (e scienziato) Isaac Asimov? La fantascienza a volte, molto spesso, anticipa la realtà soprattutto affronta dilemmi legati all’avanzamento della tecnologia. Le tre leggi prescrivevano che “un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno; un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge; un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge”.
Bene, la questione sta per porsi più o meno nei termini che prevedeva Asimov. Accade difatti che le industrie automobilistiche stiano sperimentando veicoli autoguidati e in qualche caso, vedi la Google car, hanno già percorso milioni di chilometri e avuto anche un paio di incidenti, di cui uno grave. Di fronte ai programmatori che devono insegnare al computer di bordo a reagire correttamente a tutte le possibili e prevedibili evenienze al posto dell’uomo, si sta ponendo un quesito di non facile soluzione, questo:
Di fronte all’auto si pone improvvisamente un ostacolo. L’urto, per la velocità e la qualità dell’ostacolo, è perfino potenzialmente in grado di provocare la morte dei passeggeri. L’autopilota può tentare di frenare oppure di sterzare a destra o a sinistra. Se frena l’urto avverrà comunque, ma se scarta l’ostacolo rischia di uccidere a sinistra una mamma col suo bambino e a destra un anziano pedone. Come programmare il computer?
Qui ciascuno di noi pensa subito che in un caso del genere non c’è tempo per pensare e che si reagirà d’istinto, chi frenando, chi sterzando. Ma se si programma una macchina, la reazione d’istinto non è contemplata. Occorre obbligatoriamente prevedere una risposta precisa: rischiare comunque di recidere una o più vite. Ma di chi? Qual è la scala delle priorità? Si può pre-stabilire una graduatoria di vittime possibili?
Sul piatto della bilancia pesano diverse considerazioni come quella che se tutte le auto si guidassero da sole avremmo certissimamente molte meno vittime di quelle che abbiamo oggi; anzi forse nessuna.
Inoltre, in un passato recentissimo, quando si è stati costretti ad decidere se abbattere o meno un aereo passeggeri dirottato da terroristi, si è deciso che sì, era meglio abbatterlo che rischiare una nuova Twin Tower.
Consolante e non c’è da stare allegri, ma il problema dei costruttori comunque resta e le nuove auto dovranno avere un autoguida con una risposta incorporata per un quesito che impone di compiere una scelta vitale a meno di non decidere che non se ne fa nulla e che meglio continuare a guidarci l’auto da soli.
Alla fine però si scopre che nell’età del progresso tecnologico, la filosofia occupa tutt’ora un posto preminente e che le macchine non possono sostituirsi mai all’uomo, ma solo obbedirgli.
Carlo Correr