Stiamo assistendo ad un bombardamento mediatico sulle macchine senza conducente: vediamo Google che sperimenta, Apple e Uber che lavorano a prototipi per non prendersi indietro, il governo cinese che crea il primo veicolo automatizzato su rotaie per il trasporto pubblico, che scavalca agevolmente il traffico delle metropoli cinesi. Come sempre, gli sforzi economici e sociali sono accompagnati dal lavoro dei filosofi. Stavolta si chiedono quale possa essere la responsabilità dell’auto in caso di incidente: se qualcuno viene investito, di chi è colpa? C’è un esperimento mentale che fa proprio al caso nostro: la filosofa Philippa Foot (bellissima l’allitterazione f-f-f 😉 ) ti chiede cosa faresti se potessi spostare la leva che guida il treno a destra o a sinistra; a destra, che sarebbe il percorso che il treno farebbe se tu non tirassi la leva, hai cinque operai che stanno lavorando sui binari, e verrebbero schiacciati tutti; a sinistra ne hai solo uno, ma in questo caso saresti tu che dirigesti il treno verso di lui, condannandolo a morte. Se non avessi tirato la leva, avresti potuto sentirti in qualche modo privo di colpe, perché tanto il treno li avrebbe investiti comunque quei cinque operai. Eppure, avresti potuto risparmiare la vita di quattro persone dirigendo il treno a sinistra. Il ragionamento si applica ad un veicolo a guida autonoma: se non c’è nessuno che guida e l’auto si trova davanti a due pericoli imminenti, cosa deve fare? Deve schiantarsi contro un camion per evitare i bambini che arrivano in bicicletta in contromano oppure viceversa? Un bel problema, voi direte. I filosofi sono riusciti a creare problemi un’altra volta, e ora dobbiamo sbrogliare la matassa.

In realtà, la questione pratica è piuttosto semplice: i programmatori dovranno scegliere fra la teoria consequenzialista (“la corretta azione è quella che produce risultati migliori, indipendentemente dalle intenzioni originali”) e quella deontologica (“la migliore azione è quella guidata dalle migliori intenzioni, indipendentemente dal risultato finale”). Nonostante i due paroloni, i concetti sono molto semplici: se siete consequenzialisti tirate la leva, se siete deontologici lasciate che il treno vada per la sua strada. Nonostante farà più vittime, voi non vi siete comportati in modo deliberatamente omicida. La maggior parte delle persone segue la teoria deontologica; a me piacerebbe tanto essere consequenzialista, ma credo che anch’io non avrei il coraggio di tirare la leva. Dobbiamo quindi chiederci: i programmatori devono comportarsi da umani e far obbedire la nostra macchina alla teoria deontologica, oppure riteniamo che noi umani non tiriamo la leva solo per una nostra debolezza personale e sarebbe meglio limitare il numero di vite interrotte? Badate bene: io sono sicuro che tutti voi sceglierete la seconda ipotesi, ma ciò significherebbe che se la vostra auto dovesse vedere due ciclisti in contromano a destra e un TIR a sinistra si schianterebbe contro il TIR, perché se investisse i ciclisti avremmo probabilmente due morti invece che una. Il problema è che quel morto sareste proprio voi.

Dobbiamo di fatto dare un’etica alle macchine. Eppure questo è solamente il primo problema: ad esempio, chi paga le multe se una self-driving car commette un’infrazione? Servirà la patente se di fatto non guidiamo? Chi è responsabile per gli eventuali danni causati dall’auto? O ancora: i conducenti potranno davvero fare quello che vogliono mentre l’autista invisibili li porta a destinazione (compreso bere, drogarsi, usare il cellulare, etc?). Mentre ora condanniamo violentemente l’uso dei dispositivi portatili alla guida, uno spot della Mercedes mostra un uomo che guarda il suo bel tablet mentre il TIR a cui è “alla guida” procede tranquillamente lungo una qualche Autobahn. Se non condanniamo l’uso di un tablet non vedo perché non si possa essere in macchina ubriachi, sinceramente (supponendo che tutte le altre auto in circolazione viaggino in “pilota automatico”).

Insomma, i dilemmi morali sono tanti, ed è ora che iniziamo a parlarne. Non sarebbe però corretto trascurare i vantaggi che questa tecnologia ci darebbe: più tempo libero finché siamo in macchina, meno stress alla guida (anche se magari dovremo abituarci a partire puntuali, perché sicuramente le self-driving cars non supererebbero i limiti di velocità), più sicurezza sulla strada, ma soprattutto servizi pubblici praticamente gratuiti. Le applicazioni di questa tecnologia sono davvero estesi; ci sono campi in cui è più facile da utilizzare, perché la componente umana non è così rilevante (come il trasporto su rotaia), altri in cui invece si farà più fatica ad accettarla. Davvero siamo disposti a smettere di guidare le nostre belle auto? Sinceramente non credo. Sarebbe un atto di altruismo e bontà infinito, perché gli incidenti sicuramente si ridurrebbero quasi a zero, ma i motori sono ancora un simbolo di potere e lusso troppo forte per concederlo alle sole macchine. Già la Lexus ha dovuto imitare il rombo del motore nelle sue macchine elettriche; non oso immaginare cosa dovrà inventarsi per far sembrare all’uomo che è effettivamente alla guida del gioiellino per cui ha sborsato fior fior di quattrini!

Insomma, i problemi etici e pratici non mancano, ma ci sono anche cospicui vantaggi a controbilanciare. Non so chi la spunterà, ma a me sinceramente conta più il come: le nostre macchine saranno consequenzialiste o deontologiche? Forse i miei nipotini mi sapranno rispondere.