Les voitures de la marque Tesla semblent être l’intérêt de plusieurs études ou expérimentations ces derniers temps, que ce soit de la part des pirates ou des groupes de chercheurs professionnels. Pour sa part, Tencent Keen Security Lab, une équipe de chercheurs en sécurité, a publié la semaine dernière un rapport qui présente les résultats d’une série de tests qu’ils ont mené sur la fonctionnalité Autopilot de Tesla. Selon le rapport d’étude, ils ont réussi à prendre le contrôle d’une voiture Tesla à distance et à le tromper à plusieurs reprises où une fois grâce simplement à des autocollants. Tencent Keen Security Lab un est cabinet de recherche qui se concentre sur la recherche de pointe en matière de sécurité des systèmes d'exploitation PC/mobile grand public, des applications, des technologies de cloud computing, l’IoT (appareils et objets connectés), etc. Les chercheurs du groupe expliquent dans le rapport avoir réussi plusieurs attaques sur le firmware de Tesla notamment une prise de contrôle à distance de la direction de la voiture lorsque cette dernière roule, des attaques contradictoires sur le pilote automatique qui confond des objets réels et des autocollants et quelques autres attaques. « Dans nos recherches, nous pensons avoir apporté trois contributions créatives : nous avons prouvé premièrement que nous pouvions obtenir à distance le privilège racine de Tesla APE (Tesla Autopilot ECU software version 18.6.1) et contrôler le système de pilotage, puis nous avons prouvé que nous pouvions perturber le fonctionnement des racleurs automatiques en utilisant des exemples contradictoires dans le monde physique et pour finir, nous avons prouvé que nous pouvions induire en erreur la voiture Tesla dans la voie du revers avec des modifications mineures sur la route », a écrit Tencent Kenn Security Lab comme conclusion aux différentes expériences qu’il a réalisées.
Ce rapport apparaît dans la même semaine qu’un autre publié par CNBC qui avait critiqué la façon dont les voitures Tesla conservaient les données des utilisateurs même quand ces dernières sont hors d’usage. Selon le rapport de CNBC, deux chercheurs en sécurité, qui se sont décrit comme étant des hackers white hat, ont découvert que les ordinateurs des véhicules Tesla conservent tout ce que les conducteurs ont volontairement stocké dans leur voiture, ainsi que des tonnes d’autres informations générées par les véhicules, notamment des données vidéo, de localisation et de navigation montrant exactement ce qui s’est passé avant un accident. Les données stockées sur un véhicule Tesla Model S, Model X ou Model 3 ne sont pas automatiquement effacées lorsque le véhicule est sorti du lieu de l'accident ou vendu aux enchères. Selon les recherches de GreenTheOnly, cela signifie que des informations personnelles restent sur la voiture et peuvent être apprises par les personnes qui entrent en possession de la voiture ou de certains de ses composants. Une chose jugée en violation à la vie privée.
Tencent Keen Security Lab a expliqué que lors de la conférence sur la sécurité de Black Hat USA 2018, il avait déjà présenté une démonstration visant à compromettre à distance le système de pilote automatique sur une Tesla Model S (la chaîne d'attaque a été corrigée immédiatement après le signalement à Tesla). Dans ses recherches ultérieures sur la sécurité des technologies ADAS, Keen Lab a indiqué s’être concentré sur les domaines tels que la sécurité du système de perception visuelle du modèle d'intelligence artificielle et la sécurité de l'architecture du système de pilote automatique. Tencent Keen Security a présenté successivement sur trois volets les résultats qu’il a obtenus avec les commentaires de Tesla à propos.
Dans un premier temps, lit-on dans le rapport, les résultats de l’étude ont révélé un défaut de reconnaissance visuelle des essuie-glaces. Tesla Autopilot peut identifier le temps pluvieux grâce à la technologie de reconnaissance d’image, puis activer les essuie-glaces si nécessaire. Sur la base de quelques manipulations et avec un exemple contradictoire astucieusement généré dans le monde physique, le système a été perturbé pour retourner un résultat « incorrect » et activer les essuie-glaces. « Notre objectif est de vérifier la robustesse de la fonction de vidage automatique. Nous avons essayé de créer des conditions propices à l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

). Bref, ta machine pourra être bourré de capteur, de programmes et tout et tout, il y a un truc qu'elle n'aura pas : l'instinct !