
Les chercheurs du groupe expliquent dans le rapport avoir réussi plusieurs attaques sur le firmware de Tesla notamment une prise de contrôle à distance de la direction de la voiture lorsque cette dernière roule, des attaques contradictoires sur le pilote automatique qui confond des objets réels et des autocollants et quelques autres attaques. « Dans nos recherches, nous pensons avoir apporté trois contributions créatives : nous avons prouvé premièrement que nous pouvions obtenir à distance le privilège racine de Tesla APE (Tesla Autopilot ECU software version 18.6.1) et contrôler le système de pilotage, puis nous avons prouvé que nous pouvions perturber le fonctionnement des racleurs automatiques en utilisant des exemples contradictoires dans le monde physique et pour finir, nous avons prouvé que nous pouvions induire en erreur la voiture Tesla dans la voie du revers avec des modifications mineures sur la route », a écrit Tencent Kenn Security Lab comme conclusion aux différentes expériences qu’il a réalisées.
Ce rapport apparaît dans la même semaine qu’un autre publié par CNBC qui avait critiqué la façon dont les voitures Tesla conservaient les données des utilisateurs même quand ces dernières sont hors d’usage. Selon le rapport de CNBC, deux chercheurs en sécurité, qui se sont décrit comme étant des hackers white hat, ont découvert que les ordinateurs des véhicules Tesla conservent tout ce que les conducteurs ont volontairement stocké dans leur voiture, ainsi que des tonnes d’autres informations générées par les véhicules, notamment des données vidéo, de localisation et de navigation montrant exactement ce qui s’est passé avant un accident. Les données stockées sur un véhicule Tesla Model S, Model X ou Model 3 ne sont pas automatiquement effacées lorsque le véhicule est sorti du lieu de l'accident ou vendu aux enchères. Selon les recherches de GreenTheOnly, cela signifie que des informations personnelles restent sur la voiture et peuvent être apprises par les personnes qui entrent en possession de la voiture ou de certains de ses composants. Une chose jugée en violation à la vie privée.
Tencent Keen Security Lab a expliqué que lors de la conférence sur la sécurité de Black Hat USA 2018, il avait déjà présenté une démonstration visant à compromettre à distance le système de pilote automatique sur une Tesla Model S (la chaîne d'attaque a été corrigée immédiatement après le signalement à Tesla). Dans ses recherches ultérieures sur la sécurité des technologies ADAS, Keen Lab a indiqué s’être concentré sur les domaines tels que la sécurité du système de perception visuelle du modèle d'intelligence artificielle et la sécurité de l'architecture du système de pilote automatique. Tencent Keen Security a présenté successivement sur trois volets les résultats qu’il a obtenus avec les commentaires de Tesla à propos.
Dans un premier temps, lit-on dans le rapport, les résultats de l’étude ont révélé un défaut de reconnaissance visuelle des essuie-glaces. Tesla Autopilot peut identifier le temps pluvieux grâce à la technologie de reconnaissance d’image, puis activer les essuie-glaces si nécessaire. Sur la base de quelques manipulations et avec un exemple contradictoire astucieusement généré dans le monde physique, le système a été perturbé pour retourner un résultat « incorrect » et activer les essuie-glaces. « Notre objectif est de vérifier la robustesse de la fonction de vidage automatique. Nous avons essayé de créer des conditions propices à l'activation automatique des essuie-glaces lorsqu'il n'y avait pas d'eau sur le pare-brise. C'est une idée très simple de créer des exemples contradictoires pour attaquer le système, car tout le système est totalement basé sur le système, un réseau de deep learning », a déclaré Tencent Keen Security Lab.
Lorsque cette démonstration a été présentée à Tesla, la firme a répondu ce qui suit : « cette recherche a été démontrée en affichant une image sur un téléviseur placé directement devant le pare-brise d’une voiture. Ce n'est pas une situation réelle à laquelle les conducteurs seraient confrontés ni une question de sécurité ou de sûreté. De plus, comme nous l'indiquons dans notre manuel d’utilisation, le réglage automatique (pour nos essuie-glaces) est actuellement en version bêta. Un client peut également choisir d’utiliser le réglage manuel des essuie-glaces à tout moment ». Ensuite, les tests ont révélé un défaut dans le système de reconnaissance de voie utilisé par Tesla dans ses voitures. Le pilote automatique Tesla reconnaît les voies et facilite le contrôle en identifiant les marques de circulation. Sur la base de leurs tests, ils ont prouvé qu'en plaçant des autocollants d'interférence sur la route, le système de pilote automatique capture ces informations et émet un jugement anormal, ce qui amène le véhicule à se diriger vers la voie opposée.
Pour répondre à cela, Tesla a écrit ceci : « dans cette démonstration, les chercheurs ont ajusté l'environnement physique (par exemple en plaçant du ruban adhésif sur la route ou en modifiant les lignes d'une voie) autour du véhicule pour que la voiture se comporte différemment lorsque le pilote automatique est utilisé. Ce n’est pas une préoccupation du monde réel, étant donné qu’un pilote peut facilement passer outre le pilote automatique à tout moment en utilisant le volant ou les freins et qu’il doit être prêt à le faire à tout moment ». Enfin, ils ont aussi réussi à prendre le contrôle à distance du système de direction d’une voiture Tesla et à la manipuler avec une manette de jeu sans fil.
Après avoir compromis le système de pilote automatique sur une Tesla Model S (version 2018.6.1), Keen Lab a également montré qu’il était possible de contrôler le système de direction de la voiture via le système de pilote automatique avec une manette de jeu sans fil, même lorsque le système de pilote automatique n'était pas activé par le conducteur. Tesla s’est défendu devant cette expérience en disant que « la principale vulnérabilité abordée dans ce dernier test a été corrigée par Tesla au moyen d'une mise à jour de sécurité robuste en 2017, suivie d'une autre mise à jour de sécurité complète en 2018, que nous avons publiées avant que ce groupe nous rende compte de cette recherche. Au cours des nombreuses années où nous avons eu des voitures sur la route, nous n'avons jamais vu un seul client affecté par les recherches présentées dans ce rapport ».
La plupart des internautes sont plutôt septiques en ce qui concerne les voitures autonomes et surtout celles de Tesla. L'un d'entre eux dit qu'il avait travaillé chez Waymo pendant un an sur le module de perception de la voiture autonome. Et d'après son expérience, dit-il, les voitures actuelles de la marque Tesla ne seront jamais autonomes. Cela représente probablement un risque énorme pour les investisseurs de Tesla, car à l'heure actuelle, Tesla vend une option totalement autonome sur sa voiture, ce qui ne se produira jamais avec le matériel actuel, précise-t-il. « Nous avons besoin de plusieurs avancées dans la vision par ordinateur pour la détection d'objet basée sur des images sans faille. Vous aurez également besoin de caméras à résolution supérieure et d'une puissance de calcul bien supérieure pour pouvoir traiter toutes les images », explique-t-il.
Il continue en disant qu'il est difficile d'estimer le moment où nous atteindrons ce niveau d'avancement en vision par ordinateur, peut-être d'ici 10 à 20 ans, selon lui. Pour lui, Tesla devra mettre à niveau toutes ces caméras et installer un TPU dédié qui devrait être au moins 10 fois plus rapide ou probablement plus rapide que la puce nVidia installée sur leurs voitures. Et ils devront le faire pour un prix nul, car ils ont déjà vendu l'option. C'est un peu étonnant qu'Elon Musk vende des voitures basées sur de futures percées technologiques spéculatives, dit-il pour conclure.
Un autre donne un exemple basé sur son expérience de conduite. « Je conduisais l’autre jour et je me suis arrêté derrière un panneau-stop à une intersection à quatre voies. Une voiture de police était déjà arrêtée au même carrefour, à ma gauche. Comme il avait la priorité, j'attendais qu'il continue. Mais après quelques secondes sans bouger, il fit clignoter ses feux de croisement, ce qui, selon moi, signifiait qu'il attendait quelque chose et cédait à moi. Maintenant, ce n'est pas un signal standard pour céder dans le code de véhicule de Californie, mais la plupart des humains peuvent le comprendre. Ce sont le genre de petites situations étranges qui se produisent tout le temps dans la conduite réelle. Je ne comprends pas comment on pourrait s'attendre à ce que la conduite autonome de niveau 4+ fonctionne à grande échelle sans des avancées considérables », dit-il.
Source : Rapport de l’étude
Et vous ?


Voir aussi




