Les véhicules autonomes, comme les conducteurs humains qui les ont précédés, ont besoin de voir ce qui les entoure pour éviter les obstacles et conduire en toute sécurité. Un véhicule autonome s'appuie sur un type de radars filant appelé LIDAR (Light Detection and Ranging) qui l'aide à détecter son environnement. Le système émet des lumières laser et capture ensuite leurs réflexions pour déterminer les distances entre lui-même et les obstacles sur son chemin. Il fournit des informations constantes sur la distance des objets présents dans les alentours afin que la voiture puisse décider des actions à entreprendre en toute sécurité.
La plupart des voitures autonomes avancées s'appuient aujourd'hui sur ce système pour se diriger à travers les obstacles sur leur chemin. Cependant, une équipe de chercheurs de l'université de Floride, de l'université du Michigan et de l'université des électro-communications au Japon a démontré que le système peut être trompé avec une configuration laser assez basique. Les chercheurs ont utilisé un laser pour imiter les réflexions du LIDAR que le capteur reçoit habituellement. En présence des signaux laser, le capteur n'a pas tenu compte des véritables réflexions provenant des obstacles réels, les percevant ainsi comme s'ils n'existaient pas.
Grâce à cette méthode, les chercheurs ont pu supprimer les données relatives aux obstacles statiques ainsi qu'aux piétons en mouvement. Utilisée contre une voiture autonome dans des conditions de test, l'attaque a empêché la voiture de décélérer en présence du piéton, une tâche pour laquelle elle a été programmée. L'attaque laser a été menée depuis le côté de la route d'un véhicule en approche, à une distance maximale de quatre mètres de l'attaquant. Les chercheurs n'ont également utilisé qu'un logiciel de suivi de caméra de base pour leurs expériences. L'attaque pourrait être effectuée à une plus grande distance en utilisant un équipement plus sophistiqué.
« Nous imitons les réflexions du LIDAR avec notre laser pour que le capteur ne tienne pas compte des autres réflexions provenant d'obstacles réels. Le LIDAR reçoit toujours des données authentiques de l'obstacle, mais ces données sont automatiquement écartées parce que nos fausses réflexions sont les seules perçues par le capteur », a déclaré Sara Rampazzi, professeur d'informatique et d'ingénierie de l'information à l'université de Floride, qui a dirigé l'étude. La technologie requise est assez simple, mais le laser doit être parfaitement synchronisé avec le capteur LIDAR et les véhicules en mouvement doivent être soigneusement suivis.
Cela est nécessaire pour que le laser reste dans la bonne direction. En gros, selon les chercheurs, il faut un certain degré de précision pour synchroniser le signal laser vers le capteur LIDAR à usurper. Mais ils ont déclaré que les informations dont vous avez besoin sont disponibles auprès des fabricants de systèmes LIDAR. « C'est principalement une question de synchronisation du laser avec le dispositif LIDAR. Les informations dont vous avez besoin sont généralement disponibles auprès du fabricant », déclaré Hrushikesh Bhupathiraj, doctorant de l'université de Floride dans le laboratoire de Rampazzi et l'un des principaux auteurs de l'étude.
C'est la première fois que l'on rapporte qu'un système LIDAR a été usurpé de quelque manière que ce soit pour l'empêcher de détecter des obstacles. Les chercheurs ont annoncé que les résultats seront présentés lors de l'édition de cette année de la conférence USENIX Security Symposium, mais sont actuellement publiés sur la revue arXiv. Les chercheurs estiment avoir réalisé ces tests pour aider à construire un système plus fiable pour les capteurs. Les fabricants de ces systèmes pourraient maintenant apporter des ajouts à leurs logiciels afin de pouvoir détecter les cas d'une telle attaque et passer à un autre système de détection des obstacles.
En outre, le matériel pourrait également être amélioré à l'avenir pour défendre ces systèmes contre de telles attaques. Avec l'augmentation des systèmes de voitures autonomes, une attaque sur un système LIDAR est un moyen plausible de confondre les voitures, surtout lorsque les humains ne sont plus au volant. Le résultat de telles attaques pourrait être catastrophique, et des efforts doivent être faits en amont pour minimiser ou éliminer ces vulnérabilités. Les scientifiques ont également proposé des mises à jour qui pourraient éliminer cette faiblesse afin de protéger les personnes contre les attaques malveillantes.
Par exemple, les fabricants pourraient apprendre au logiciel à rechercher les signatures révélatrices des réflexions parasites ajoutées par l'attaque laser. « Révéler cette vulnérabilité nous permet de construire un système plus fiable. Dans notre article, nous démontrons que les stratégies de défense précédentes ne sont pas suffisantes, et nous proposons des modifications qui devraient remédier à cette faiblesse », a déclaré Yulong Cao, doctorant à l'université du Michigan et l'un des principaux auteurs de l'étude.
Source : Rapport de l'étude
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
Les voitures autonomes pourraient obliger les autres usagers de la route à conduire plus efficacement, le gouvernement néerlandais entend prendre la tête de ces développements
Elon Musk promet une nouvelle fois que les Tesla se conduiront toutes seules dans un avenir proche, une affirmation qu'il fait depuis au moins 2015
Les voitures Tesla ne sont pas prêtes à être homologuées en tant que véhicules entièrement autonomes cette année, a déclaré le PDG Elon Musk
La police de San Francisco utilise des voitures sans conducteur comme caméras de surveillance mobiles, « les véhicules autonomes enregistrent leur environnement en continu », rappelle la police