L’automobile autonoma di Uber ha ucciso per scelta

Il software responsabile della identificazione dei falsi pericoli avrebbe scambiato la vittima per un oggetto trascurabile.

di Erin Winick

È stata individuata la presunta causa dell’incidente che lo scorso marzo ha provocato la morte di una persona, travolta da un’automobile a guida autonoma di Uber mentre attraversava la strada.

La notizia: Stando a un rapporto pubblicato su the Information, il software della vettura avrebbe rilevato il pedone, scegliendo però di non reagire immediatamente. L’auto era stata programmata per ignorare potenziali falsi positivi, o oggetti per strada che non interferirebbero realmente con il mezzo (come un sacchetto di plastica). Queste impostazioni, evidentemente, andranno riviste.

Perché? L’auto potrebbe aver fatto parte di un test pensato per migliorare il comfort di guida. Le automobili autonome non sono famose per l’esperienza di guida rilassante; ignorando oggetti che non rappresentano realmente un ostacolo, un veicolo potrebbe ridurre il numero di frenate e ripartenze brusche descritte finora dai loro passeggeri.

E adesso? Uber sta conducendo una indagine in collaborazione con il National Transportation Safety Board, al termine della quale verranno sicuramente divulgati ulteriori dettagli. Nel frattempo, il rapporto di the Information potrebbe ispirare le alre società impegnate nello sviluppo di sistemi per la guida autonoma a prestare maggiore attenzione a quanto si può incontrare per strada.

Related Posts
Total
0
Share