Auto senza pilota, primi incidenti. Si discute di responsabilità e scelte morali

Auto senza pilota, primi incidenti. Si discute di responsabilità e scelte morali
Auto senza pilota

LOS ANGELES – Registrati i primi incidenti che vedono coinvolte le automobili che si guidano da sole. Da quando è stato dato il via, da settembre 2014, alla sperimentazione su strada delle vetture senza un umano al volante in California, quattro delle 48 auto automatizzate autorizzate a circolare sulle strade sono state coinvolte in incidenti: in tre dei casi si tratta delle Lexus di Google, mentre nel quarto di una del produttore Delphi Automotive.

In due dei casi erano i sistemi informatici a controllare la vettura, mentre nell’altra metà guidava ancora una persona fisica. In tutti e quattro gli incidenti, inoltre, sia Google che Delphi riferiscono che la causa non sia da imputare loro. Delphi – che ha commentato spontaneamente i fatti – afferma che una delle sue vetture, ancora guidata da uno dei suoi autisti, è stata colpita sul fianco destro mentre aspettava di svoltare a sinistra. In ogni caso, per giunta, si tratterebbe di scontri avvenuti a meno di 10 miglia all’ora e capaci di arrecare minimi danni: anche se non vi sono informazioni precise sembrerebbe trattarsi di piccoli scontri dalle minime ripercussioni.

Nonostante questo restano paure e diffidenze, come spiega Punto Informatico, nei confronti delle auto che si guidano da sole e della loro sperimentazione.

Se California o il Regno Unito hanno dato il via alla sperimentazione, non mancano le perplessità. Il problema è che se da un lato eliminando il fattore umano si conta di limitare il traffico ed il problema della ricerca estenuante di un parcheggio, dall’altro occorre affidarsi completamente ad una macchina. La paura è legata soprattutto alle responsabilità in caso di incidenti: è la logica di un algoritmo a prendere una decisione, non l’etica di un pilota.

 

Gestione cookie