Il dilemma del carrello

Nel 2003, ben cinque anni prima dell’introduzione dell’Ecopass a Milano, l’industria automobilistica ancora non sapeva che presto sarebbe cambiata in modo irreversibile. Quell’anno a San Carlos, California, Elon Musk fondava la sua azienda più nota, la Tesla, con l’obiettivo di rivoluzionare la concezione dell’auto elettrica trasformandola da mezzo utilizzato esclusivamente da chi ha una forte coscienza ambientale a prodotto sexy e di largo consumo. Quattordici anni dopo, l’aspirazione di partenza di Elon Musk sembra destinata a realizzarsi a breve.

Tuttavia, l’innovazione portata avanti da Tesla e dalle case concorrenti non si ferma al passaggio dal combustibile fossile all’energia elettrica. Come si può leggere sul sito, «tutti i veicoli Tesla […] hanno la dotazione hardware necessaria per la guida autonoma con un livello di sicurezza sostanzialmente maggiore di quello umano». Un tema fondamentale nello sviluppo dell’industria automobilistica dei prossimi anni, che mira a introdurre sul mercato veicoli driverless e controllati dall’intelligenza artificiale della macchina stessa.

Stando però alle parole di Bernhard Weidemann, un portavoce della Daimler, «un’auto con un sistema d’automazione di terzo livello (su una scala da zero a cinque, dove il quinto livello garantisce una guida autonoma in qualsiasi condizione, NdR) non ha il permesso di circolare. A livello tecnico siamo in grado di produrla. Convincere un ente regolatore a far utilizzare queste vetture ai nostri clienti, invece, è un altro paio di maniche».

Guida autonoma, Volvo

Un’auto guidata dall’AI non ha il permesso di circolare perché non esiste ancora una cornice legale che ne permetta l’uso. Se un veicolo al quinto livello d’autonomia investisse un bambino, uccidendolo, chi sarebbe penalmente perseguibile? Il passeggero? L’azienda produttrice della macchina? Nessuno? O ancora, in uno scenario futuristico, l’intelligenza artificiale stessa? Le macchine dovrebbero dare precedenza alla sicurezza dei loro passeggeri o dei pedoni? Devono rispettare il regolamento della strada anche quando non rispettarlo permetterebbe di salvare delle vite?

Secondo Iyad Rahwan del MIT, Jean-Francois Bonnefon della Toulouse School of Economics, e Azim Shariff della University of California, per permettere agli Stati di legiferare su un tema nuovo e complesso come questo bisogna risolvere alcune domande a livello etico prima ancora che a livello giuridico. Rahwan è convinto che l’utilizzo di macchine a guida autonoma potrebbe ridurre del 90% gli incidenti automobilistici eliminando l’errore umano. Di fronte a dati così schiaccianti il dubbio etico relativo alla circolazione di self-drive car sembra facilmente risolto. A questo punto però, spiega Rahwan, emerge un impaccio ispirato al celebre “dilemma del carrello ferroviario”, esperimento mentale di filosofia etica creato da Philippa Ruth Foot. Cosa succederebbe se una macchina fosse in una situazione con due sole scelte a disposizione, delle quali una fosse quella di proseguire dritto uccidendo cinque pedoni e l’altra di deviare uccidendo i passeggeri a bordo dell’auto? Quale decisione sarebbe eticamente giusta? E se i pedoni fossero due e i passeggero quattro?

Esistono grossomodo due approcci: il primo, mutuato da Jeremy Bentham, stabilisce che la macchina dovrebbe seguire l’etica utilitaristica e quindi operare la scelta che ridurrebbe al minimo il danno totale. Nel caso in cui il trade-off fosse tra un passeggero e molti pedoni, sarebbero i pedoni a essere privilegiati. L’altro approccio deriva dalla filosofia kantiana e stabilisce che non bisognerebbe mai intraprendere volontariamente un’azione che arrechi esplicitamente danno a un altro essere umano. Quindi la macchina dovrebbe proseguire il suo corso anche se ciò porterebbe a un maggior numero di morti.

I tre studiosi trovatisi al bivio hanno deciso di dare il via a un sondaggio per stabilire quali siano le preferenze della popolazione mondiale. Il sondaggio si chiama Moral Machine ed è possibile parteciparvi raggiungendo moralmachine.mit.edu. Accedendo alla pagina si viene accolti su «una piattaforma creata per raccogliere una prospettiva umana sulle decisioni morali prese da intelligenze artificiali» e subito si viene introdotti a una serie di dilemmi morali dove macchine a guida autonoma dovranno scegliere il minore tra due mali come uccidere una donna incinta o due anziani. Da osservatore esterno si giudica quale dei due risultati è più accettabile e si procede a valutare diversi scenari.

La maggior parte dei partecipanti ha seguito dei criteri etici vicini alla visione utilitaristica di Bentham. Tuttavia, quando come ultima domanda viene chiesto se si sarebbe pronti a comprare un’automobile che non metterebbe la sicurezza del passeggero al primo posto, tutti gli interrogati hanno risposto che non acquisterebbero mai una vettura del genere. Non siamo forse ancora pronti a rinunciare a una, seppur minima, parte della nostra sicurezza per aumentare sensibilmente la sicurezza totale per la popolazione. Nel corso di un Ted Talk, Iyad Rahwan ha ammesso di non avere una soluzione a questo dilemma sociale, ma ha aggiunto: «Riconoscendo che la regolamentazione delle macchine a guida autonoma non è solamente un problema tecnologico, ma anche un problema di cooperazione sociale, spero che almeno si possa iniziare a porsi le giuste domande». Sta a noi decidere se preferiamo vivere nel mondo di Kant o in quello di Bentham.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...