
Les chercheurs du groupe expliquent dans le rapport avoir réussi plusieurs attaques sur le firmware de Tesla notamment une prise de contrôle à distance de la direction de la voiture lorsque cette dernière roule, des attaques contradictoires sur le pilote automatique qui confond des objets réels et des autocollants et quelques autres attaques. « Dans nos recherches, nous pensons avoir apporté trois contributions créatives : nous avons prouvé premièrement que nous pouvions obtenir à distance le privilège racine de Tesla APE (Tesla Autopilot ECU software version 18.6.1) et contrôler le système de pilotage, puis nous avons prouvé que nous pouvions perturber le fonctionnement des racleurs automatiques en utilisant des exemples contradictoires dans le monde physique et pour finir, nous avons prouvé que nous pouvions induire en erreur la voiture Tesla dans la voie du revers avec des modifications mineures sur la route », a écrit Tencent Kenn Security Lab comme conclusion aux différentes expériences qu’il a réalisées.
Ce rapport apparaît dans la même semaine qu’un autre publié par CNBC qui avait critiqué la façon dont les voitures Tesla conservaient les données des utilisateurs même quand ces dernières sont hors d’usage. Selon le rapport de CNBC, deux chercheurs en sécurité, qui se sont décrit comme étant des hackers white hat, ont découvert que les ordinateurs des véhicules Tesla conservent tout ce que les conducteurs ont volontairement stocké dans leur voiture, ainsi que des tonnes d’autres informations générées par les véhicules, notamment des données vidéo, de localisation et de navigation montrant exactement ce qui s’est passé avant un accident. Les données stockées sur un véhicule Tesla Model S, Model X ou Model 3 ne sont pas automatiquement effacées lorsque le véhicule est sorti du lieu de l'accident ou vendu aux enchères. Selon les recherches de GreenTheOnly, cela signifie que des informations personnelles restent sur la voiture et peuvent être apprises par les personnes qui entrent en possession de la voiture ou de certains de ses composants. Une chose jugée en violation à la vie privée.
Tencent Keen Security Lab a expliqué que lors de la conférence sur la sécurité de Black Hat USA 2018, il avait déjà présenté une démonstration visant à compromettre à distance le système de pilote automatique sur une Tesla Model S (la chaîne d'attaque a été corrigée immédiatement après le signalement à Tesla). Dans ses recherches ultérieures sur la sécurité des technologies ADAS, Keen Lab a indiqué s’être concentré sur les domaines tels que la sécurité du système de perception visuelle du modèle d'intelligence artificielle et la sécurité de l'architecture du système de pilote automatique. Tencent Keen Security a présenté successivement sur trois volets les résultats qu’il a obtenus avec les commentaires de Tesla à propos.
Dans un premier temps, lit-on dans le rapport, les résultats de l’étude ont révélé un défaut de reconnaissance visuelle des essuie-glaces. Tesla Autopilot peut identifier le temps pluvieux grâce à la technologie de reconnaissance d’image, puis activer les essuie-glaces si nécessaire. Sur la base de quelques manipulations et avec un exemple contradictoire astucieusement généré dans le monde physique, le système a été perturbé pour retourner un résultat « incorrect » et activer les essuie-glaces. « Notre objectif est de vérifier la robustesse de la fonction de vidage automatique. Nous avons essayé de créer des conditions propices à l'activation automatique des essuie-glaces lorsqu'il n'y avait pas d'eau sur le pare-brise. C'est une idée très simple de créer des exemples contradictoires pour attaquer le système, car tout le système est totalement basé sur le système, un réseau de deep learning », a déclaré Tencent Keen Security Lab.
Lorsque cette démonstration a été présentée à Tesla, la firme a répondu ce qui suit : « cette recherche a été démontrée en affichant une image sur un téléviseur placé directement devant le pare-brise d’une voiture. Ce n'est pas une situation réelle à laquelle les conducteurs seraient confrontés ni une question de sécurité ou de sûreté. De plus, comme nous l'indiquons dans notre manuel d’utilisation, le réglage automatique (pour nos essuie-glaces) est actuellement en version bêta. Un client peut également choisir d’utiliser le réglage manuel des essuie-glaces à tout moment ». Ensuite, les tests ont révélé un défaut dans le système de reconnaissance de voie utilisé par Tesla dans ses voitures. Le pilote automatique Tesla reconnaît les voies et facilite le contrôle en identifiant les marques de circulation. Sur la base de leurs tests, ils ont prouvé qu'en plaçant des autocollants d'interférence sur la route, le système de pilote automatique capture ces informations et émet un jugement anormal, ce qui amène le véhicule à se diriger vers la voie opposée.
Pour répondre à cela, Tesla a écrit ceci : « dans cette démonstration, les chercheurs ont ajusté l'environnement physique (par exemple en plaçant du ruban adhésif sur la route ou en modifiant les lignes d'une voie) autour du véhicule pour que la voiture se comporte différemment lorsque le pilote automatique est utilisé. Ce n’est pas une préoccupation du monde réel, étant donné qu’un pilote peut facilement passer outre le pilote automatique à tout moment en utilisant le volant ou les freins et qu’il doit être prêt à le faire à tout moment ». Enfin, ils ont aussi réussi à prendre le contrôle à distance du système de direction d’une voiture Tesla et à la manipuler avec une manette de jeu sans fil.
Après avoir compromis le système de pilote automatique sur une Tesla Model S (version 2018.6.1), Keen Lab a également montré qu’il était possible de contrôler le système de direction de la voiture via le système de pilote automatique avec une manette de jeu sans fil, même lorsque le système de pilote automatique n'était pas activé par le conducteur. Tesla s’est défendu devant cette expérience en disant que « la principale vulnérabilité abordée dans ce dernier test a été corrigée par Tesla au moyen d'une mise à jour de sécurité robuste en 2017, suivie d'une autre mise à jour de sécurité complète en 2018, que nous avons publiées avant que ce groupe nous rende compte de cette recherche. Au cours des nombreuses années où nous avons eu des voitures sur la route, nous n'avons jamais vu un seul client affecté par les recherches présentées dans ce rapport ».
La plupart des internautes sont plutôt septiques en ce qui concerne les voitures autonomes et surtout celles de Tesla. L'un d'entre eux dit qu'il avait travaillé chez Waymo pendant un an sur le module de perception de la voiture autonome. Et d'après son expérience, dit-il, les voitures actuelles de la marque Tesla ne seront jamais autonomes. Cela représente probablement un risque énorme pour les investisseurs de Tesla, car à l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.