L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à un véhicule Tesla de voir les véhicules et la route (généralement l'autoroute) qui l'entourent, et de se conduire elle-même dans une certaine mesure. Le système Autopilot utilise des caméras, des capteurs à ultrasons et des radars pour voir et sentir l'environnement de la voiture. Selon le constructeur automobile américain, la suite de capteurs et de caméras permet au conducteur d'un véhicule Tesla d'avoir une conscience de son environnement qu'un conducteur seul n'aurait pas autrement.
Il a jouté qu'un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressant". Toutefois, il estime que l'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome. Avant de l'activer, le conducteur doit accepter de "garder les mains sur le volant à tout moment" et de toujours "garder le contrôle et la responsabilité de sa voiture". Si cela n'est pas respecté, l'Autopilot émet une série croissante d'avertissements visuels et sonores pour rappeler le conducteur à l'ordre.
Seulement, si Tesla n'a de cesse de déclarer que l'Autopilot rend la conduite humaine beaucoup plus sûre, l'expérience des utilisateurs tend à démontrer le contraire. Les vidéos partagées régulièrement par les utilisateurs montrent que le système a des difficultés dans plusieurs domaines, notamment à identifier correctement les usagers de la route. La dernière en date est une vidéo postée par le Youtubeur suisse RealRusty qui montre sa Tesla s'approchant d'une calèche sur une autoroute à l'extérieur de Zurich, en Suisse. Le fait marquant dans la vidéo est que la Tesla a identifié la calèche à tort comme plusieurs autres modes de transport.
Le système semble identifier brièvement la calèche comme une voiture, un humain, un humain marchant derrière une voiture, un humain marchant derrière un camion, et comme un camion seul. À un moment donné, lorsque la calèche est apparemment identifiée à tort comme un camion, l'Autopilot montre le "camion" qui tourne sur lui-même comme s'il était destiné à une collision frontale avec la Tesla. « Nous étions en train de conduire dans notre Tesla Model Y lorsque cette calèche est apparue devant nous. Incapables de passer, nous sommes restés derrière et avons regardé la visualisation de Tesla essayer de la repérer », a déclaré RealRusty.
« En commençant par une moto, une voiture, un camion faisant marche arrière, tout était là ! Heureusement, nous avons tout enregistré avec [un] smartphone », a-t-il ajouté. La vidéo commence en montrant la Tesla qui se dirige vers la calèche blanche transportant deux personnes et le système suggère instantanément qu'il s'agit d'un grand semi-remorque. Mais ensuite, le semi-remorque numérique disparaît de l'écran et un piéton apparaît, mais personne ne se trouvait réellement sur la route. Le semi-remorque réapparaît à l'écran, mais se déplace cette fois-ci vers l'arrière et sur les côtés.
Selon certains commentateurs, cela leur a donné des "vibrations de Destination finale". Pour rappel, "Destination finale" est une série de films qui se concentre sur un groupe de personnes qui tentent d'éviter la mort et dans le deuxième film, un semi-remorque transportant des rondins de bois a causé des morts en masse sur une autoroute. L'Autopilot est conçu pour détecter les véhicules, les piétons et d'autres objets à proximité de la voiture, et prendre des mesures d'évitement si nécessaire. Cependant, il n'est pas certain que les concepteurs d'Autopilot aient inclus une calèche parmi les véhicules que le système peut détecter.
Plusieurs commentateurs de la vidéo se moquent du manque de précision de l'Autopilot, car Elon Musk, PDG de Tesla, vante régulièrement le système comme étant l'un des plus sophistiqués. Mais la technologie n'a pas encore tenu une seule des promesses répétées de Musk depuis des années et a entraîné le rappel de nombreux véhicules Tesla. En février, l'entreprise a rappelé près de 54 000 voiture et SUV parce qu'une mise à jour de l'Autopilot leur permettait de franchir des panneaux d'arrêt sans s'arrêter complètement. Mais cet incident n'est pas isolé. Par le passé, Tesla a rappelé d'autres véhicules après une mise à jour défectueuse de l'Autopilot.
En avril, une vidéo "profondément troublante" a montré une Tesla avec l'Autopilot activé écrasant un mannequin de taille enfantine lors d'un test effectué par un groupe de défense de la sécurité. Selon les testeurs, le véhicule n'aurait pas détecté la présence du mannequin immobile sur la route. Le système l'aurait percuté à plusieurs reprises à une vitesse moyenne de 40 km/h. Les défenseurs de la sécurité se plaignent que Tesla ne devrait pas être autorisée à tester ses véhicules sur des routes publiques avec des conducteurs non formés, et que l'Autopilot peut mal fonctionner, exposant ainsi les autres usagers au danger.
La plupart des constructeurs automobiles disposant d'un logiciel similaire effectuent leurs tests avec des conducteurs formés à la sécurité. Jusqu'ici, l'Autopilot semble avoir du mal à identifier les motocyclistes et les véhicules de secours. Depuis janvier 2018, la National Highway Traffic Safety Administration (NHTSA) des États-Unis a signalé plus d'une dizaine de cas d'accidents dans lesquels des véhicules Tesla avec l'Autopilot activé se sont écrasés contre des véhicules de secours ou de police en stationnement. Cette année, des véhicules Tesla en mode Autopilot ont percuté par l'arrière des motocyclistes, tuant leurs conducteurs.
La NHTSA enquête actuellement sur ce problème des véhicules Tesla. Le régulateur américain cherche à savoir si l'Autopilot est capable d'identifier correctement les motocyclistes et les véhicules de secours le jour comme la nuit. Toutefois, malgré ces mésaventures, Tesla continue de faire la publicité de son système et a même récemment décidé d'augmenter le prix de l'option Full Self-Driving (FSD). Tesla a annoncé que le FSD va coûter 15 000 dollars en Amérique du Nord à partir du 5 septembre, contre 12 000 dollars actuellement. L'entreprise a augmenté le prix de son logiciel plus de trois fois en moins de deux ans.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la difficulté de l'Autopilot à identifier la calèche ?
Que pensez-vous de l'augmentation du prix du FSD malgré les inquiétudes autour de la technologie ?
Voir aussi
Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre, soit une augmentation de 3 000 $
Tesla fait face à de nouvelles enquêtes sur les décès de motocyclistes et la publicité mensongère, les véhicules Tesla semblent avoir du mal à reconnaître les motocyclistes et les piétons
Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique
Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla