Quando la guida automatica uccide

Uber nell'occhio nel ciclone, una delle sue auto a guida autonoma investe e uccide un pedone. Il problema etico su di chi sia la colpa non è un fattore da trascurare.

Uber è ancora sulla bocca di tutti

  • Dopo aver taciuto sulla violazione da parte di un gruppo di hacker dell'applicazione Uber e aver così pagato un riscatto di 100 mila dollari per far si che non diffondessero i dati rubati di 57 milioni di clienti;
  • Dopo esser stata al centro degli scandali sessuali che hanno portato il fondatore Travis Kalanic a consegnare le dimissioni;
  • Dopo le contestazioni avvenute ad Agosto per la condotta definita non attenta la sicurezza, per via di alcune scelte commerciali che hanno portato Uber all'acquisto in serie di un veicolo non ritenuti sicuri (a tal punto che Londra non ha voluto rinnovare la licenza di Uber per operare nella città),
  • Dopo la denuncia di Google per la sottrazione indiretta di importantissimi file sul progetto di guida autonoma Google.

Il 19 marzo sulle strade di Tempe in Arizona, l'auto Uber in modalità autoguidata proseguiva a una velocità di circa 60 Km/h, sull'auto presente anche un tecnico seduto al posto di guida pronto a intervenire in casi di emergenza, sulla strada in questione nonostante è presente il divieto di attraversamento pedonale, la macchina urta una donna in attraversamento pedonale, tutto succede in una frazione di secondo, il tecnico non ha il tempo e i riflessi per intervenire, probabilmente non li avrebbe avuti nemmeno se fosse stato lui a guidare senza la guida automatica poiché la dinamica è avvenuta in modo imprevedibile.

Probabilmente nessuno potrà mai conoscere la dinamica esatta se non i presenti, perciò inutile soffermarsi su questo punto che sembrerebbe comunque dar ragione al veicolo...

Ragione al veicolo o ragione al tecnico di bordo? 

qui emerge la questione su cui si parla poco: di infallibile non esiste nulla perciò pretendere che lo possa essere un sistema automatizzato circondato da un numero indefinito di variabili è pura utopia, oppure se non la si volesse considerare pura utopia bisognerebbe ammettere che siamo destinati a divenire essere inferiori rispetto alle macchine stesse che creeremo, ma escludendo per un attimo lo scenario apocalittico per cui saremo dominati da ciò che creeremo oggi e ipotizzando che sia lecito e corretto accettare la creazione di sistemi automatici, nel caso specifico di guida automatica, ci dovremmo domandare:

qual è il numero di vite "sacrificabili accidentalmente” ritenuto accettabile per continuare questo tipo di progetto?

Una? Due? Nessuna? Oppure bisogna considerare tutto ok finché il tasso di incidenti con lesioni alla persona risulti minore al tasso di incidenti medio per km percorso di un essere umano medio?

Se nel caso di Uber la responsabilità non fosse del pedone come sembrerebbe essere, ma fosse da imputare al veicolo, la colpa ricadrebbe sul tecnico di bordo? o sulla macchina (intesa come insieme di software, hardware, Ai ecc)? oppure dovrebbe ricadere su chi ha prodotto il sistema di guida automatizzato?

Inoltre persino il sistema di guida automatica è chiamato a rispondere a un dilemma etico, per cui verrà programmato  opportunatamente, nel caso il sistema di guida automatico si trovasse nella sfortunata condizione di dover decidere fra investire 2 bambini o sfondare un muretto procurando la probabile morte del trasportato, probabilmente l'autoveicolo verrà programmato per la seconda opzione, fra l'altro cancellando la possibilità che lo stesso possa testimoniare per eventuali malfunzionamenti di gestione della dinamica della macchina stessa.

Milano, 21/03/2018
Team Cogede Consulting
Il Commercialista di Milano e di Pavia