
sur un panneau d'affichage connecté à Internet
Les systèmes automatisés d'aide à la conduite comme celui de Tesla se concentrent généralement sur ce que la voiture ne peut pas voir. Mais un groupe de chercheurs s'est penché sur ce que les systèmes de conduite autonomes pourraient voir qu'un conducteur humain ne voit pas, y compris les objets "fantômes" et les panneaux qui ne sont pas vraiment là.
Les chercheurs de l'université israélienne Ben Gurion ont passé les deux dernières années à expérimenter ces images "fantômes" afin de réussir à tromper les systèmes de conduite semi-autonomes. Ils ont précédemment révélé qu'ils pouvaient utiliser des projections de lumière en une fraction de seconde sur les routes pour réussir à tromper les systèmes d'aide à la conduite de Tesla. Et qu’ils pouvaient les faire s'arrêter automatiquement sans avertissement lorsque les caméras des voitures voient des images truquées de panneaux de signalisation ou de piétons. Dans le cadre de nouvelles recherches, les investigateurs ont découvert qu'ils pouvaient réussir le même tour avec seulement quelques images d'un panneau de signalisation injectées dans la vidéo d'un panneau d'affichage. Ils avertissent que si des pirates informatiques détournent un panneau d'affichage connecté à Internet pour réaliser le tour, celui-ci pourrait être utilisé pour provoquer des embouteillages ou même des accidents de la route tout en laissant peu de traces derrière lui.
« Le pirate se contente de faire ressortir une image de quelque chose sur la route ou d'injecter quelques images dans un panneau d'affichage numérique et la voiture va freiner ou éventuellement faire une sortie de route. Et c'est dangereux. Le conducteur ne s'en rendra même pas compte du tout. La voiture de quelqu'un va donc réagir, et il ne comprendra pas pourquoi », explique Yisroel Mirsky, un chercheur de l'université Ben Gurion et de Georgia Tech qui a travaillé sur ce projet. Les resultats de cette recherche seront présentés le mois prochain à la conférence ACM Computer and Communications Security, en Floride.
Dans une première série de recherches, publiée au début de l'année, l'équipe a projeté des images de figures humaines sur une route, ainsi que des panneaux de signalisation sur des arbres et d'autres surfaces. Ils ont découvert que la nuit, lorsque les projections étaient visibles, ils pouvaient tromper à la fois une Tesla Model X équipée du système d'assistance à la conduite HW2.5 Autopilot (la version la plus récente disponible à l'époque, aujourd'hui la deuxième plus récente) et un appareil Mobileye 630. Ils ont réussi à faire s'arrêter une voiture Tesla pour un piéton fantôme qui est apparu pendant une fraction de seconde et ont trompé le dispositif Mobileye en communiquant la limite de vitesse incorrecte au conducteur avec un panneau routier projeté.
Dans cette dernière série d'expériences, les chercheurs ont injecté des images d'un panneau stop fantôme sur des panneaux d'affichage numérique, simulant ce qu'ils décrivent comme un scénario dans lequel quelqu'un a piraté un panneau d'affichage routier pour en modifier la vidéo. Ils ont également mis à jour la dernière version du pilote automatique de Tesla, connue sous le nom de HW3. Ils ont découvert qu'ils pouvaient à nouveau tromper un véhicule Tesla ou faire en sorte que le même appareil Mobileye donne au conducteur des alertes erronées avec seulement quelques images de vidéo altérée.
Les chercheurs ont découvert qu'une image apparaissant pendant 0,42 seconde pouvait tromper le véhicule Tesla de manière fiable, tandis qu'une image apparaissant pendant seulement un huitième de seconde pouvait tromper le Mobileye. Ils ont également essayé de trouver des points dans une image vidéo qui attireraient le moins l'attention de l'œil humain, allant jusqu'à développer leur propre algorithme pour identifier les blocs de pixels clés dans une image afin qu'un panneau routier fantôme d'une demi-seconde puisse être glissé dans les parties "inintéressantes". Et s'ils ont testé leur technique sur un écran de télévision sur une petite route. Ils affirment que celle-ci pourrait facilement être adaptée à un panneau d'affichage routier numérique, où elle pourrait provoquer un chaos beaucoup plus généralisé.
Les chercheurs de Ben Gurion sont loin d'être les premiers à démontrer des méthodes d'usurpation d'entrées dans les capteurs d'un véhicule Tesla. Dès 2016, une équipe de chercheurs chinois a démontré qu'ils pouvaient usurper, et même cacher des objets aux capteurs de Tesla en utilisant des équipements radio, soniques et lumineux. Plus récemment, une autre équipe chinoise a découvert qu'elle pouvait exploiter la technologie de suivi de voie de Tesla pour inciter une Tesla à changer de trajectoire simplement en plantant des autocollants bon marché sur une route.
Mais les chercheurs de Ben Gurion soulignent que, contrairement à ces méthodes antérieures, leurs projections et les astuces des panneaux d'affichage piratés ne laissent pas de traces physiques. L'effraction d'un panneau d'affichage en particulier peut être réalisée à distance, comme l'ont démontré de nombreux pirates informatiques. L'équipe émet l'hypothèse que les attaques fantômes pourraient être menées comme une technique d'extorsion, comme un acte de terrorisme, ou pour un pur méfait. « Les méthodes précédentes laissent des preuves médico-légales et nécessitent une préparation compliquée. Les attaques fantômes peuvent être réalisées à distance et ne nécessitent pas d'expertise particulière », explique le chercheur Ben Nassi, de Ben Gurion.
Dans un courriel adressé aux chercheurs la semaine dernière, Tesla a fait valoir un argument familier, à savoir que sa fonction de pilote automatique n'est pas censée être un système de conduite entièrement autonome. « Le pilote automatique est une fonction d'assistance au conducteur qui est destinée à être utilisée uniquement par un conducteur attentif qui a les mains sur le volant et qui est prêt à prendre le relais à tout moment », peut-on lire dans la réponse de Tesla. Les chercheurs de Ben Gourion rétorquent que le pilote automatique est utilisé de manière très différente dans la pratique. « Comme nous le savons, les gens utilisent cette fonction comme un pilote automatique et ne gardent pas toute leur attention sur la route lorsqu'ils l'utilisent. Par conséquent, nous devons essayer d'atténuer cette menace pour assurer la sécurité des gens, indépendamment des avertissements de Tesla », écrit Mirsky dans un courriel.
Tesla a raison, mais pas de manière à rassurer ses propres conducteurs. Le système Autopilot de Tesla dépend en grande partie de caméras et dans une moindre mesure, de radars. Alors que les véhicules plus véritablement autonomes comme ceux développés par Waymo, Uber ou la société de démarrage de véhicules autonomes de GM, Cruise, intègrent également un système de laser, souligne Charlie Miller, l'architecte principal de la sécurité des véhicules autonomes chez Cruise. « Le laser n'aurait pas été susceptible de ce type d'attaque. Vous pouvez changer une image sur un panneau d'affichage et le laser s'en fiche, il mesure les informations de distance et de vitesse. Donc ces attaques n'auraient pas fonctionné sur la plupart des voitures vraiment autonomes qui existent », déclare Miller.
Les chercheurs de Ben Gurion n'ont pas testé leurs attaques contre ces autres installations à capteurs multiples. Mais ils ont démontré des moyens de détecter les fantômes qu'ils ont créés, même sur une plateforme basée sur une caméra. Ils ont mis au point un système qu'ils ont appelé "Ghostbusters", conçu pour prendre en compte un ensemble de facteurs tels que la profondeur, la lumière et le contexte autour d'un panneau de signalisation perçu, puis de peser tous ces facteurs avant de décider si l'image d'un panneau de signalisation est réelle. « C'est comme si un comité d'experts se réunissait et décidait, sur la base de perspectives très différentes, de ce qu'est cette image, qu'elle soit réelle ou fausse, puis prenait une décision collective », explique Mirsky. Le résultat, selon les chercheurs, pourrait bien plus sûrement vaincre leurs attaques fantômes, sans ralentir de manière perceptible les réactions d'un système de conduite autonome basé sur une caméra.
Nassi de Ben Gurion concède que le système Ghostbuster n'est pas parfait et il affirme que leurs recherches sur les images fantômes montrent la difficulté inhérente à prendre des décisions de conduite autonomes même avec de multiples capteurs comme le radar et la caméra combinés d'un véhicule Tesla. Tesla, dit-il, a adopté une approche "mieux vaut prévenir que guérir" qui fait confiance à la seule caméra si elle montre un obstacle ou un panneau routier devant elle, la rendant ainsi vulnérable aux attaques fantômes. Mais une autre solution pourrait ne pas tenir compte des dangers si un ou plusieurs des capteurs d'un véhicule les manquent. « Si vous mettez en place un système qui ignore les images fantômes s'ils ne sont pas validés par d'autres capteurs, vous aurez probablement des accidents. Atténuer les fantômes a un prix », explique Nassi.
Source : Compte rendu des recherches
Et vous ?

Voir aussi :




Vous avez lu gratuitement 12 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.