IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs ont réussi à inciter le pilote automatique de Tesla à s'engager dans le trafic opposé
En utilisant des autocollants

Le , par Bill Fassinou

671PARTAGES

5  0 
Les voitures de la marque Tesla semblent être l’intérêt de plusieurs études ou expérimentations ces derniers temps, que ce soit de la part des pirates ou des groupes de chercheurs professionnels. Pour sa part, Tencent Keen Security Lab, une équipe de chercheurs en sécurité, a publié la semaine dernière un rapport qui présente les résultats d’une série de tests qu’ils ont mené sur la fonctionnalité Autopilot de Tesla. Selon le rapport d’étude, ils ont réussi à prendre le contrôle d’une voiture Tesla à distance et à le tromper à plusieurs reprises où une fois grâce simplement à des autocollants. Tencent Keen Security Lab un est cabinet de recherche qui se concentre sur la recherche de pointe en matière de sécurité des systèmes d'exploitation PC/mobile grand public, des applications, des technologies de cloud computing, l’IoT (appareils et objets connectés), etc.

Les chercheurs du groupe expliquent dans le rapport avoir réussi plusieurs attaques sur le firmware de Tesla notamment une prise de contrôle à distance de la direction de la voiture lorsque cette dernière roule, des attaques contradictoires sur le pilote automatique qui confond des objets réels et des autocollants et quelques autres attaques. « Dans nos recherches, nous pensons avoir apporté trois contributions créatives : nous avons prouvé premièrement que nous pouvions obtenir à distance le privilège racine de Tesla APE (Tesla Autopilot ECU software version 18.6.1) et contrôler le système de pilotage, puis nous avons prouvé que nous pouvions perturber le fonctionnement des racleurs automatiques en utilisant des exemples contradictoires dans le monde physique et pour finir, nous avons prouvé que nous pouvions induire en erreur la voiture Tesla dans la voie du revers avec des modifications mineures sur la route », a écrit Tencent Kenn Security Lab comme conclusion aux différentes expériences qu’il a réalisées.

Ce rapport apparaît dans la même semaine qu’un autre publié par CNBC qui avait critiqué la façon dont les voitures Tesla conservaient les données des utilisateurs même quand ces dernières sont hors d’usage. Selon le rapport de CNBC, deux chercheurs en sécurité, qui se sont décrit comme étant des hackers white hat, ont découvert que les ordinateurs des véhicules Tesla conservent tout ce que les conducteurs ont volontairement stocké dans leur voiture, ainsi que des tonnes d’autres informations générées par les véhicules, notamment des données vidéo, de localisation et de navigation montrant exactement ce qui s’est passé avant un accident. Les données stockées sur un véhicule Tesla Model S, Model X ou Model 3 ne sont pas automatiquement effacées lorsque le véhicule est sorti du lieu de l'accident ou vendu aux enchères. Selon les recherches de GreenTheOnly, cela signifie que des informations personnelles restent sur la voiture et peuvent être apprises par les personnes qui entrent en possession de la voiture ou de certains de ses composants. Une chose jugée en violation à la vie privée.


Tencent Keen Security Lab a expliqué que lors de la conférence sur la sécurité de Black Hat USA 2018, il avait déjà présenté une démonstration visant à compromettre à distance le système de pilote automatique sur une Tesla Model S (la chaîne d'attaque a été corrigée immédiatement après le signalement à Tesla). Dans ses recherches ultérieures sur la sécurité des technologies ADAS, Keen Lab a indiqué s’être concentré sur les domaines tels que la sécurité du système de perception visuelle du modèle d'intelligence artificielle et la sécurité de l'architecture du système de pilote automatique. Tencent Keen Security a présenté successivement sur trois volets les résultats qu’il a obtenus avec les commentaires de Tesla à propos.

Dans un premier temps, lit-on dans le rapport, les résultats de l’étude ont révélé un défaut de reconnaissance visuelle des essuie-glaces. Tesla Autopilot peut identifier le temps pluvieux grâce à la technologie de reconnaissance d’image, puis activer les essuie-glaces si nécessaire. Sur la base de quelques manipulations et avec un exemple contradictoire astucieusement généré dans le monde physique, le système a été perturbé pour retourner un résultat « incorrect » et activer les essuie-glaces. « Notre objectif est de vérifier la robustesse de la fonction de vidage automatique. Nous avons essayé de créer des conditions propices à l'activation automatique des essuie-glaces lorsqu'il n'y avait pas d'eau sur le pare-brise. C'est une idée très simple de créer des exemples contradictoires pour attaquer le système, car tout le système est totalement basé sur le système, un réseau de deep learning », a déclaré Tencent Keen Security Lab.

Lorsque cette démonstration a été présentée à Tesla, la firme a répondu ce qui suit : « cette recherche a été démontrée en affichant une image sur un téléviseur placé directement devant le pare-brise d’une voiture. Ce n'est pas une situation réelle à laquelle les conducteurs seraient confrontés ni une question de sécurité ou de sûreté. De plus, comme nous l'indiquons dans notre manuel d’utilisation, le réglage automatique (pour nos essuie-glaces) est actuellement en version bêta. Un client peut également choisir d’utiliser le réglage manuel des essuie-glaces à tout moment ». Ensuite, les tests ont révélé un défaut dans le système de reconnaissance de voie utilisé par Tesla dans ses voitures. Le pilote automatique Tesla reconnaît les voies et facilite le contrôle en identifiant les marques de circulation. Sur la base de leurs tests, ils ont prouvé qu'en plaçant des autocollants d'interférence sur la route, le système de pilote automatique capture ces informations et émet un jugement anormal, ce qui amène le véhicule à se diriger vers la voie opposée.

Pour répondre à cela, Tesla a écrit ceci : « dans cette démonstration, les chercheurs ont ajusté l'environnement physique (par exemple en plaçant du ruban adhésif sur la route ou en modifiant les lignes d'une voie) autour du véhicule pour que la voiture se comporte différemment lorsque le pilote automatique est utilisé. Ce n’est pas une préoccupation du monde réel, étant donné qu’un pilote peut facilement passer outre le pilote automatique à tout moment en utilisant le volant ou les freins et qu’il doit être prêt à le faire à tout moment ». Enfin, ils ont aussi réussi à prendre le contrôle à distance du système de direction d’une voiture Tesla et à la manipuler avec une manette de jeu sans fil.

Après avoir compromis le système de pilote automatique sur une Tesla Model S (version 2018.6.1), Keen Lab a également montré qu’il était possible de contrôler le système de direction de la voiture via le système de pilote automatique avec une manette de jeu sans fil, même lorsque le système de pilote automatique n'était pas activé par le conducteur. Tesla s’est défendu devant cette expérience en disant que « la principale vulnérabilité abordée dans ce dernier test a été corrigée par Tesla au moyen d'une mise à jour de sécurité robuste en 2017, suivie d'une autre mise à jour de sécurité complète en 2018, que nous avons publiées avant que ce groupe nous rende compte de cette recherche. Au cours des nombreuses années où nous avons eu des voitures sur la route, nous n'avons jamais vu un seul client affecté par les recherches présentées dans ce rapport ».

La plupart des internautes sont plutôt septiques en ce qui concerne les voitures autonomes et surtout celles de Tesla. L'un d'entre eux dit qu'il avait travaillé chez Waymo pendant un an sur le module de perception de la voiture autonome. Et d'après son expérience, dit-il, les voitures actuelles de la marque Tesla ne seront jamais autonomes. Cela représente probablement un risque énorme pour les investisseurs de Tesla, car à l'heure actuelle, Tesla vend une option totalement autonome sur sa voiture, ce qui ne se produira jamais avec le matériel actuel, précise-t-il. « Nous avons besoin de plusieurs avancées dans la vision par ordinateur pour la détection d'objet basée sur des images sans faille. Vous aurez également besoin de caméras à résolution supérieure et d'une puissance de calcul bien supérieure pour pouvoir traiter toutes les images », explique-t-il.

Il continue en disant qu'il est difficile d'estimer le moment où nous atteindrons ce niveau d'avancement en vision par ordinateur, peut-être d'ici 10 à 20 ans, selon lui. Pour lui, Tesla devra mettre à niveau toutes ces caméras et installer un TPU dédié qui devrait être au moins 10 fois plus rapide ou probablement plus rapide que la puce nVidia installée sur leurs voitures. Et ils devront le faire pour un prix nul, car ils ont déjà vendu l'option. C'est un peu étonnant qu'Elon Musk vende des voitures basées sur de futures percées technologiques spéculatives, dit-il pour conclure.

Un autre donne un exemple basé sur son expérience de conduite. « Je conduisais l’autre jour et je me suis arrêté derrière un panneau-stop à une intersection à quatre voies. Une voiture de police était déjà arrêtée au même carrefour, à ma gauche. Comme il avait la priorité, j'attendais qu'il continue. Mais après quelques secondes sans bouger, il fit clignoter ses feux de croisement, ce qui, selon moi, signifiait qu'il attendait quelque chose et cédait à moi. Maintenant, ce n'est pas un signal standard pour céder dans le code de véhicule de Californie, mais la plupart des humains peuvent le comprendre. Ce sont le genre de petites situations étranges qui se produisent tout le temps dans la conduite réelle. Je ne comprends pas comment on pourrait s'attendre à ce que la conduite autonome de niveau 4+ fonctionne à grande échelle sans des avancées considérables », dit-il.

Source : Rapport de l’étude

Et vous ?

Que pensez-vous des conclusions de cette recherche ?
Croyez-vous que la voiture autonome puisse exister un jour ? Si oui, à quand estimez-vous son existence ?

Voir aussi

Les épaves de Tesla Model 3 gardent beaucoup plus d'informations que vous ne le pensez comme des données vidéo et de localisation avant un accident

Même si Elon Musk l'a promis, il n'y aura pas de voitures autonomes cette année, ni avant plusieurs années, selon Mark Stephens

Elon Musk a declaré que les voitures autonomes de Tesla rouleront probablement sans assistance humaine d'ici la fin de 2019

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot

L'Autopilote des Tesla plus sûr que la conduite manuelle d'après une enquête commandée par une société d'assurances

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Christian_B
Membre éclairé https://www.developpez.com
Le 24/06/2019 à 11:09
Les deux exigent que le conducteur soit au moins prêt à prendre le contrôle du véhicule à tout moment. Il doit rester vigilant et garder ses mains sur le volant, c'est l’une des règles lisibles sur le site Internet de l’entreprise.
C'est une absurdité psychologique. On ne peut pas rester attentif des heures si on n'a rien à faire la plupart du temps. Si le véhicule commet une erreur, le conducteur sera inévitablement surpris et réagira trop tard. Cet avertissement est pour le constructeur une manière de se défausser en cas d'accident. Je pense qu'on est loin d'un véhicule capable de bien réagir en toutes circonstances. Mais les constructeurs sont pressés de récupérer les frais de recherche avec de gros bénéfices en prime.
Sans compter les erreurs de mise à jour logicielle et les risques de piratage dont on ne reparle pas ici. Si le nombre de ces véhicules augmentait fortement (pas tout de suite au vu des prix) une catastrophe (accidents simultanés sur de nombreux véhicules) n'est pas exclue.
Un exemple de fragilité croissante de ces techniques sophistiquées et pas vraiment indispensables.
6  0 
Avatar de gandalflemaia
Membre régulier https://www.developpez.com
Le 28/05/2019 à 12:13
Je prends les paris: c'est du vent !
Ca permet juste de rassurer les actionnaires en offrant une fonctionnalité supplémentaire et donc un intérêt économique à ses voitures.

Je ne dis pas que ça n'existera jamais, mais bon... en 1an !?

La semaine prochaine, on envoit un vol habité sur Mars; le mois prochain, on remplace toutes nos sources d'énergie par du renouvellable.
Bah quoi ?! Technologiquement, on sait le faire, donc il y a qu'à, faut qu'on...
5  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 26/06/2019 à 9:59
Citation Envoyé par Ryu2000 Voir le message
Le système de Tesla ne doit pas être loin d'être meilleur qu'un humain. Il y a beaucoup d'erreurs qu'un humain peut faire mais pas une machine.
Mais il y a beaucoup de choses qu'un humain peut analyser, comprendre et anticiper, qu'une machine ne sait pas et ne saura peut-être jamais faire !
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 28/06/2019 à 8:40
Citation Envoyé par Christian_B Voir le message
Le même raisonnement permettrait de conclure que l'homme ne peut pas se montrer intelligent car ses capacités résultent d'une propagation électro-chimique de signaux neuronaux en fonction de la perception.
C'est justement le problème. On ne comprend pas comment notre cerveau transforme ces signaux neuronaux pour en faire du raisonnement. Alors, comment programmer quelque chose que l'on ne comprend pas ?
3  0 
Avatar de agodfrin
Membre régulier https://www.developpez.com
Le 15/04/2019 à 10:31
Personnellement je vois plutôt un marché très réel et un besoin qui va aller croissant: celui des automobiles assurant un fonctionnement fortement assisté avec certains automatismes, mais surtout avec des mécanisme d'avertissement et de réaction automatique aux imprévus.

Le marché est celui des personnes âgées en besoin d'autonomie. En dehors des grandes villes - celles qui offrent des services de transport en commun fiables et à haute fréquence - le déplacement ne peut se faire qu'en voiture. Avec l'âge vient une perte de vision, d'audition, d'attention, de réflexes ... J'ai pu le constater en vrai de la part d'un oncle qui était devenu un vrai danger en conduisant, mais qui sans voiture était totalement isolé, même pour des tâches simples comme faire des courses.

Je crois donc plutôt à une progressivité des automatismes: détection des mouvements des autres véhicules (mais aussi piétons, cyclistes ...), détection des signaux routiers, détection des feux rouges ... Aussi détection des bandes de circulation. Avec des alertes, mais aussi la prise en main automatique en cas de risque. Et tout ça en milieu urbain bien sur. Comme dit, automatiser la conduite sur autoroute est plutôt simple. L'automatiser en milieu urbain avec ses centaines de sollicitations et de situations imprévues est un autre challenge.

Il est bon pour la société en général que les personnes âgées puissent mener une vie la plus autonome possible. Quand on voit l'évolution de l'espérance de vie et le coût de la gestion de la dépendance, on ne peut qu'encourager le développement de la conduite assistée (et in fine des véhicules autonomes).
2  0 
Avatar de lsbkf
Membre actif https://www.developpez.com
Le 27/05/2019 à 21:28
Je ne pense pas que ce soit rentable avec le risque de retrouver sa voiture saccagée.
On a beau y mettre le meilleur pilote automatique qui n'aura jamais d'accident, oui c'est une idée folle.
2  0 
Avatar de LeBressaud
Membre confirmé https://www.developpez.com
Le 28/05/2019 à 7:33
Citation Envoyé par sylsau Voir le message
Je pense surtout que Elon Musk devrait faire une pause.
Il fait beaucoup de déclarations en ce moment et je n'ai pas l'impression que cela aille dans l'intérêt de Tesla.
Ou que la presse arrête de les relayer alors qu'elles sont de plus en plus délirante.
2  0 
Avatar de sinople
Membre chevronné https://www.developpez.com
Le 28/05/2019 à 22:08
Dans le fond l'idée est bonne et c'est probablement un modèle qui arrivera un jour ou l'autre dans la mobilité.

Mais plus pragmatiquement, entre les problématiques de validation d'un auto-pilote d'un point de vue légal, avoir l'infrastructure de recharge qui fait que la voiture va se recharger toutes seule au milieu de "sa journée de travail" et les divers lobby de secteur directement en concurrence...

N'oublions pas non plus que les problèmes de mobilités ont aussi une notion de "pic", la plupart des gens ont besoin de la bagnole au même moment de la journée...
2  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 21/06/2019 à 18:42
Ça voudrait juste dire que la personne au volant n’était pas en mesure d'assurer ce pourquoi elle était là.

et à sa décharge ça montre que plus la voiture est équipée pour compenser les inattentions du conducteur, plus le conducteur est inattentif ; cela signifie que soit une voiture est 100% autonome, soit elle ne doit pas l’être du tout.
2  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 26/06/2019 à 10:36
Citation Envoyé par Ryu2000 Voir le message
Un humain n'est pas fait pour conduire, alors qu'un pilote automatique si.
La technologie finira par dépasser l'humain dans le domaine de la conduite. (c'est pas l'objectif le moins accessible)

Un humain perd sa concentration très souvent, il fatigue, il ne peut pas regarder dans plusieurs directions simultanément, etc.
Une machine ne viol jamais les règles (pas d'excès de vitesse, pas de franchissement de ligne blanche, etc).

Un humain peut faire un accident en cherchant son paquet de cigarette ou en changeant de musique, tout en conduisant.
Il arrive que des humains conduisent en ayant consommé de l'alcool.

On a déjà vu plein de vidéos d'accidents évité par les voitures Tesla, c'est pas dit qu'avec un humain au volant ça aurait aussi bien fini.
Il est très probable que les auto-pilotes finissent par devenir de meilleur conducteur que les humains, même dans les chemins de terre, les zones de travaux, les routes sans marquage au sol.
Sauf que ta machine, elle "apprend" à conduire par ... des humains.
Ensuite, ta machine saura conduire dans un cadre prévu, mais justement, s'il y a des accidents, c'est qu'il y a des imprévus, des évènements soudains, et que l'on est incapable de programmer. Il m'est arrivé de conduire de nuit dans une forêt et d'avoir une chouette qui heurte mon parebrise avant, le parebrise a volé en éclat, la chouette s'est retrouvée dans la voiture, pas morte (mais bien amochée) et qui essayait de repartir. J'ai réussi à stopper le véhicule. Je ne sais pas comment se comporterait un véhicule autonome dans un cas similaire (en supposant que la chouette détruise un ou plusieurs de ses capteurs ?).
Il y a les gens qui traversent en courant, et sans regarder, les cyclistes, les animaux, les enfants, ...
Par exemple, un conducteur humain va être très vigilant (normalement) s'il arrive dans une zone avec des enfants qui jouent au ballon, parce qu'il sait qu'il peut y avoir un problème. La machine continuera sa route sans s'occuper de cela, et n'aura peut-être pas le temps de réagir. Si un ballon traverse la route, la machine va analyser un objet sans importance, et ne freinera pas, et n'aura pas le temps de freiner, ensuite pour le gamin qui cours après le ballon (c'est du vécu, j'en ai encore des frissons, et même parfois des cauchemars, même si, j'avais réussi à éviter le gosse, et qu'il n'y avait eu aucune victime, ni même aucun accident ! Juste un gamin qui se retrouve devant ta voiture ! ). Bref, ta machine pourra être bourré de capteur, de programmes et tout et tout, il y a un truc qu'elle n'aura pas : l'instinct !
2  0