Autonomous Vehicle, l’etica al tempo della robotica
Le tre leggi della robotica furono teorizzate da Isaac Asimov, il celebre scrittore di fantascienza, e comparvero per la prima volta compiutamente enunciate in un suo racconto del 1942 dal titolo “Circolo vizioso”. Si era allora in quella che viene definita la prima generazione dell’elettronica e che vide la nascita dei primi calcolatori elettromeccanici. Molto tempo è passato da allora e la rivoluzione Hi-Tech che stiamo ora vivendo era concretamente inimmaginabile anche per un visionario come Asimov. Basti pensare che Thomas J. Watson, amministratore delegato di Ibm, nel 1948, aveva dichiarato: “Penso che ci sia posto, sul mercato mondiale, per circa cinque computer”. Oggi sappiamo di quanto si sbagliasse.
Tuttavia era chiaro già allora che era necessario approntare un sistema etico che regolasse il funzionamento di quelle macchine che si ipotizzava potessero avere un’intelligenza artificiale. Certo le tre leggi di Asimov erano una brillante intuizione di come il problema poteva essere affrontato, ma oggi non sono ovviamente sufficienti a esaurire le reali problematiche etiche connesse all’utilizzo di macchine che sempre più spesso vengono delegate a compiere scelte complesse con conseguenze sovente molto invasive.
Per meglio comprendere, si pensi alle Av, “Autonomous Vehicle”, ossia alle automobili che si guidano da sole. Non esistono più solo nei racconti di fantascienza, ma da qualche anno sono una realtà e le più avanzate sono prodotte da Google e da Tesla. Certo ancora non le vediamo girare per le nostre strade, ma gli esperti prevedono una diffusione su larga scala nei prossimi anni, fino a soppiantare gli attuali veicoli nei prossimi due decenni. Non c’è dubbio che si tratti di una grande rivoluzione per gli spostamenti di tutti noi e che saranno più efficienti di quelle manuali e probabilmente più ecologiche.
E allora dov’è il problema? Quali le implicazioni etiche davanti a un gioiellino che ci permetterà di stare comodamente seduti dentro l’abitacolo mentre veniamo scarrozzati da una parte all’altra, completamente liberi dagli adempimenti a cui la guida manuale ci costringe? I problemi ci sono, sono complessi ed emblematici dei risvolti etici che afferiscono al mondo delle nuove frontiere tecnologiche.
Poniamo il caso di viaggiare su uno di questi veicoli in una strada a doppio senso di marcia. Improvvisamente davanti a noi sbuca un bambino che si ritrova sulla traiettoria della nostra automobile e che non è possibile evitare senza finire schiantati contro un’altra auto o contro una parete a ridosso della strada. Come si comporterà la nostra automobile? Cosa riterrà più opportuno fare?
Dovrà tenere conto della nostra incolumità, preferirà salvare la vita del bambino, o sceglierà di tamponare un’altra autovettura invadendo la corsia di fianco? Il quesito non è puramente teorico, come dimostra la grande quantità di studi che attorno a questo problema si stanno compiendo. Della questione se ne sono occupati al Massachusetts Institute of Technology, alla Toulouse School of Economics e all’università dell’Oregon e in diverse altri prestigiosi atenei. Dopo tanto pensare, il risultato delle ricerche e dei dibattiti è stato pubblicato su ArXiz.org, l’illustre sito che si occupa, tra l’altro, di tecnologia e di intelligenza artificiale.
Il problema è apparso da subito arduo e molto insidioso. La domanda a cui si cerca una risposta è: come si comporteranno le Av quando dovranno prendere decisioni etiche, quando si tratterà di scegliere tra salvare la vita del passeggero, quella di un pedone o quella ancora di chi viaggia su un altro veicolo?
La questione resta aperta e possiamo stare certi che le polemiche e gli studi per sedarle verranno trattate dagli organi di stampa con sempre maggior interesse, man mano che le automobili che si guidano da sole cominceranno a conquistarsi maggiori fette di mercato. Una cosa però appare certa già da subito. Chiedersi cosa faranno le auto che si guidano da sole in casi come quelli descritti, significa porsi la domanda sbagliata.
A ben pensarci quelle auto non si guidano da sole. A prendere le decisioni non saranno le automobili ma coloro che hanno creato gli algoritmi che le fanno muovere. Le Av si comporteranno, cioè, esattamente come sono state programmate e non compiranno alcuna scelta etica, bensì eseguiranno gli ordini impiantati dentro ai loro computer.
Se, come sostengono i produttori, le loro automobili sceglieranno il male minore, occorre chiedersi in base a cosa verrà individuato, considerando che quest’ultimo sarà il risultato di calcoli analitici compiuti a priori dai costruttori. E se nell’esempio del bambino che rischia di morire investito, possiamo convenire che la sua vita debba essere risparmiata, in ragione della sua giovane età, quale vita dovrà essere salvata quando si dovrà scegliere tra la vita di un maschio e di una femmina? Quale quando la scelta ricadrà tra un bianco e un nero, tra un cattolico e un islamico, tra un ricco e un povero? E siamo sicuri che chi intenda comprare una vettura di questo tipo lo faccia anche se sa che corre il rischio di perdere la vita per il freddo calcolo di un algoritmo? In fin dei conti, fino a quando ognuno guida la sua macchina, a prevalere sarà lo spirito di sopravvivenza, l’abilità e la fortuna, senza essere condannati a priori nel caso l’algoritmo decida di sacrificarci. E cosa si inventeranno allora i costruttori per persuaderci ad acquistare il loro prodotto? Sicuri che il male minore non verrà calcolato tenendo anche conto dei profitti che i produttori rincorrono?
Aveva ragione Isaac Asimov, quando diceva che “parte della disumanità del computer sta nel fatto che, una volta programmato e messo in funzione, si comporta in maniera perfettamente onesta”. Ora non resta che capire a quali valori e parametri etici faranno riferimento coloro che programmeranno le Autonomous Vehicle.
di Adelaide Conti