[Mise à jour] Tesla: un premier décès en conduite autonome
Tesla a annoncé qu'une personne est décédée lors d'un accident à bord d'un de ses véhicules qui était en mode autonome, c'est-à-dire que la conduite était confiée intégralement à son électronique.
Le décès ne serait pas lié à un bug de système, mais à des circonstances particulières. Un camion blanc a coupé la route de la voiture alors qu'il y avait le soleil en face. En bref, ni les caméras ni le "conducteur" n'auraient vu ce camion.
La voiture n'a donc pas freiné ni dévié de sa course et s'est encastrée sous le camion...
Il y aura bien entendu une enquête judiciaire qui devra non seulement voir la part des responsabilités de chaque véhicule dans l'accident mais également savoir si le système autonome a failli ou tout du moins s'il a été plus faillible qu'un être humain.
Bien entendu, on se doutait qu'un jour ou l'autre une telle chose arriverait. Si cela ne donnera pas forcément un coup de frein à l'automatisation de la conduite, cela va au moins, surtout aux Etats-Unis, viser une jurisprudence dans un flou juridique énorme, aucun législateur n'ayant encore voulu se pencher sur le partage des responsabilités dans ces conditions très particulières.
[MàJ] Des enquêteurs ont indiqué qu'ils ont retrouvé dans le véhicule accidenté un lecteur de DVD portable qui fonctionnait. Il semble donc possible que le "conducteur" ait décidé de faire totalement confiance dans son véhicule en cessant de se focaliser sur sa surveillance, une erreur fatale.