
À l'aide d'une Tesla Model Y, les ingénieurs de Consumer Reports ont pu "conduire" sur une piste d'essai fermée tout en étant assis sur le siège du passager avant et sur la banquette arrière. Pour tromper le système d'aide à la conduite de la voiture, ils ont attaché une chaîne lestée au volant pour simuler la pression des mains d'un conducteur et ont utilisé le bouton de vitesse du volant pour accélérer à partir d'un arrêt complet.
Tant qu'ils gardaient la porte du côté conducteur fermée et la ceinture de sécurité du côté conducteur bouclée (afin que le système ne se désactive pas automatiquement), le véhicule a continué à monter et descendre la piste d'un demi-mile et à suivre les lignes des voies peintes pendant l'expérience, sans que personne ne s'en aperçoive.
« La voiture a roulé sur la voie de 800 mètres de notre piste, à plusieurs reprises, sans jamais remarquer que personne n'était à la place du conducteur, ni que personne ne touchait le volant, ni qu'il n'y avait pas de poids sur le siège », a déclaré Jake Fisher, directeur principal des tests automobiles de CR, dans un communiqué. « C'était un peu effrayant quand nous avons réalisé à quel point il était facile de déjouer les protections, dont nous avons prouvé qu'elles étaient clairement insuffisantes ».
« Dans notre évaluation, le système n'a pas seulement échoué à s'assurer que le conducteur était attentif, mais il ne pouvait pas non plus dire s'il y avait un conducteur présent », a-t-il poursuivi. « Tesla se laisse distancer par d'autres constructeurs automobiles comme GM et Ford qui, sur les modèles équipés de systèmes avancés d'aide à la conduite, utilisent une technologie pour s'assurer que le conducteur regarde la route ».
Fisher a également mis en garde contre toute tentative de tromper de la même manière Autopilot de Tesla, notant que cette expérience ne devrait être tentée que par un professionnel qualifié. En plus de réaliser le test sur un parcours fermé, CR avait également des équipes de sécurité à disposition et n'a jamais dépassé les 30mph (environ 48 km/h). « Soyons clairs : toute personne qui utilise l'Autopilot sur la route sans qu'il y ait quelqu'un à la place du conducteur se met en danger et met les autres en danger de façon imminente », déclare Fisher.
La démonstration de CR intervient alors que les enquêteurs fédéraux et locaux continuent de sonder les causes d'un accident mortel survenu samedi au Texas, dans lequel une Tesla Model S 2019 apparemment sans conducteur a percuté un arbre, tuant les deux occupants du véhicule. L'agent Mark Herman, du district 4 du comté de Harris, qui était sur place lors de l'accident, a déclaré à CR qu'il est presque certain que personne n'était à la place du conducteur lorsque le véhicule s'est écrasé.
Le véhicule impliqué dans l'accident mortel de samedi serait une Tesla Model S, un modèle différent de celui utilisé par Consumer Reports dans son expérience. Cependant, les deux utilisent le même système Autopilot, note la publication.
Autopilot peut s’éteindre de manière inattendue sans avertir le conducteur, selon Fisher
La piste sur laquelle CR a effectué son test comportait des voies peintes, dont Elon Musk, le PDG de Tesla, a affirmé qu’Autopilot avait besoin pour fonctionner. Dans sa réponse à l'accident de Spring, au Texas, Musk a noté que la route sur laquelle la voiture se trouvait n'avait pas de lignes peintes, suggérant qu'il ne serait pas possible d'activer Autopilot dans ces conditions. Ce qui pourrait être la cause de l’accident mortel. La National Highway Traffic Safety Administration et le National Transportation Safety Board enquêtent sur l'accident, qui s'est produit sur une route sinueuse à Spring à l'extérieur de Houston.
Musk a également affirmé que les journaux de données récupérés de la Model S accidentée « montrent jusqu'à présent qu’Autopilot n'était pas activé ». Mais des recherches ont montré que le système Autopilot peut s'éteindre de manière inattendue sans en avertir le conducteur. « Autopilot fait des erreurs, et lorsqu'il rencontre une situation qu'il ne peut pas négocier, il peut s'éteindre immédiatement », a déclaré Fisher. « Si le conducteur n'est pas prêt à réagir rapidement, cela peut se terminer par un accident ».
Sur sa page d’assistance, Tesla prévient que les conducteurs doivent garder les yeux sur la route et les mains sur le volant à tout moment, bien que le constructeur automobile refuse notoirement d'inclure un système de surveillance du conducteur plus robuste (comme le suivi oculaire infrarouge, par exemple) pour s'assurer que ses clients suivent les protocoles de sécurité. Autopilot est considéré comme un système "partiellement autonome" de niveau 2 selon les normes de la Society of Automotive Engineers, qui exige que les conducteurs gardent les mains sur le volant et les yeux sur la route. La société avertit également que, malgré leur appellation, ses fonctions de pilotage automatique et de conduite entièrement autonome nécessitent une "supervision active du conducteur".
Mais ces avertissements n'ont pas empêché les conducteurs de Tesla de confier le contrôle au système Autopilot de leur voiture pendant qu'ils dorment, changent de siège ou quittent la route des yeux. En 2018, la police californienne a arrêté un conducteur de Tesla Model S qui était ivre et endormi au volant alors que sa voiture filait toute seule à 70 miles par heure (112 kilomètres par heure). Un incident similaire s'est produit au Canada en septembre dernier. Le propriétaire d'une Tesla Model S a été accusé de conduite dangereuse après avoir été retrouvé endormi au volant alors qu'il roulait à 150 kilomètres à l'heure sur l'autoroute.
Et l'accident de samedi n'est pas un incident isolé. La National Highway Traffic Safety Administration (NHTSA), l'organisme américain chargé de la sécurité automobile, aurait ouvert au moins 14 enquêtes sur des accidents de Tesla dans lesquels le système Autopilot du véhicule est soupçonné d'avoir été utilisé. Les familles des conducteurs décédés ont poursuivi Tesla pour mort injustifiée. Pour sa part, Musk blâme l'excès de confiance des conducteurs. « Lorsqu'il y a un accident grave, c'est presque toujours, en fait peut-être toujours, le cas qu'il s'agit d'un utilisateur expérimenté, et le problème est plutôt celui de la complaisance », a déclaré Musk en 2018.
Dans le passé, la NHTSA, qui a le pouvoir de réglementer les constructeurs automobiles et de demander le rappel des véhicules défectueux, a adopté une approche non interventionniste pour réglementer les systèmes partiellement et entièrement automatisés, de peur d'entraver le développement de nouvelles fonctionnalités prometteuses.
Mais depuis quelque temps, l'agence a intensifié ses enquêtes sur Tesla, envoyant des équipes pour enquêter sur des accidents. Elle a enquêté sur plus d’une dizaine d’accidents impliquant des véhicules Tesla au cours des dernières années, mais jusqu'à présent, elle s'est appuyée sur le respect volontaire des règles de sécurité par les entreprises automobiles et technologiques. Tesla a rappelé ce mois environ 135 000 de ses voitures électriques Model S et X pour un problème avec leurs écrans tactiles centraux de 17 pouces qui pourrait entraîner la perte de l'affichage de la caméra de recul et d'autres fonctions, suite à une enquête de plusieurs mois menée par la NHTSA.
Les sénateurs démocrates Richard Blumenthal et Edward Markeyh ont demandé aux responsables fédéraux de mener une enquête approfondie sur l'accident du Texas et de formuler des recommandations pour améliorer la conduite autonome.
Source : Consumer Reports
Et vous ?


Voir aussi :



