Il est possible de tromper les détecteurs des voitures autonomes
Dans une autre brève du jour nous vous parlons de la volonté de Toyota d'aider les automobilistes à prévenir les accidents sans les déloger de leur place centrale.
La découverte d'un chercheur en sécurité montre que ce sera peut-être une étape obligatoire pendant encore un bon moment.
Ce que les sociétés qui testent ces produits craignent avant toute autre chose, c'est que quelqu'un puisse prendre à distance le contrôle de ces véhicules et modifier leur comportement et provoquer des accidents.
Pourtant, il n'y a pas besoin de déployer des trésors de savoir faire de hacker pour interférer avec le fonctionnement de ces véhicules.
Jonathan Petit, un expert en sécurité, l'a récemment démontré. Il a utilisé pour cela un laser de faible puissance contrôlé par un logiciel installé sur un Raspberry Pi (sa puissance suffit amplement).
Ainsi contrôlé ce laser est capable d'interférer avec le système LIDAR (des lasers invisibles) utilisé par les véhicules autonomes pour "voir" leur environnement.
Avec ce système simple et ne coûtant pas grand chose en composant, il a été capable de renvoyer de faux échos qui ont fait croire au véhicule qu'il y avait des obstacles sur son chemin, de quoi provoquer embardées ou freinage d'urgence.
C'est un nouveau problème auquel les fabricants de ces véhicules vont devoir trouver une solution pas forcément simple.
Cela rappelle surtout qu'en plus de la capacité des systèmes à prendre systématiquement les bonnes décisions, il va falloir prendre en compte la capacité d'autres personnes à interférer avec ces "intelligences artificielles".