IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot
Après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto

Le , par Stéphane le calme

319PARTAGES

6  1 
Une conductrice de Tesla a gagné son procès contre le constructeur automobile à Munich. Le tribunal a qualifié le système Autopilot de son véhicule de peu fiable et il a estimé qu'il posait un « risque énorme » dans la circulation urbaine.

Tesla est à nouveau en difficulté à cause de sa fonction d'aide à la conduite Autopilot. Le tribunal de district de Munich I a condamné le groupe californien à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Mi-juin, le tribunal a suivi un rapport technique dans le jugement qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le rétrécissement d'un chantier de construction. De plus, la voiture freine encore et encore inutilement. Cela pourrait signifier un « risque massif » dans les centres-villes en particulier et entraîner des collisions par l'arrière.

L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal : si les utilisateurs devaient allumer et éteindre Autopilot manuellement entre l'autoroute, le trafic périurbain et le trafic urbain, cela pourrait détourner l'attention de la situation de la circulation. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat des plaignants Christoph Lindner.

Elon Musk a déclaré en mars que Tesla lancerait probablement une version test de son nouveau logiciel « Full Self-Driving » en Europe plus tard cette année, en fonction de l'approbation réglementaire. « Il est assez difficile de faire de l'auto-conduite complète en Europe », avait-il déclaré aux travailleurs de l'usine de Berlin à l'époque, affirmant qu'il restait beaucoup de travail à faire pour gérer les situations de conduite délicates en Europe où les routes varient beaucoup d'un pays à l'autre.

Elon Musk a déclaré que la percée de la voiture autonome était une question vitale pour son entreprise. Résoudre ce problème est « crucial », a déclaré Musk dans une interview avec des membres d'un club Tesla dans la Silicon Valley en juin. C'est là que réside la différence entre « le fait que Tesla vaut beaucoup d'argent ou fondamentalement rien du tout ».


Un tribunal allemand avait déjà interdit les déclarations publicitaires de Tesla relatives à Autopilot

Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot et de ses systèmes d'assistance à la conduite. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.

L'affaire a été portée par le Wettbewerbszentrale, centre de protection contre la concurrence déloyale, qui a accusé Tesla de promettre à ses clients plus que ce qu'il pouvait réellement leur offrir. L'organisme a fait valoir que les affirmations de Tesla constituaient des pratiques commerciales trompeuses et que le téléspectateur moyen de ses publicités pouvait être amené à croire que non seulement les véhicules de Tesla sont capables de rouler de manière totalement autonome, mais aussi que cette technologie est considérée comme étant légale en Allemagne.

« Un cadre juridique pour la conduite autonome en ville n'existe même pas encore en Allemagne. Et d'autres fonctionnalités ne sont pas encore opérationnelles comme annoncé », a déclaré le Dr Andreas Ottofülling, un avocat du groupe Wettbewerbszentrale.

Tesla a affirmé avoir informé ses clients que ses systèmes automatisés d'aide à la conduite n'équivalent pas à un système de conduite totalement autonome, et a déjà rebaptisé "Autopilot" en "Autodrive" dans ses documents allemands. Le Dr Andreas Ottofülling a salué cette décision comme une première victoire.


Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière

Le mois dernier, la National Highway Traffic Safety Administration a publié des données sur la sécurité, ou son absence, des systèmes avancés d'aide à la conduite. Depuis juin 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022. La nouvelle fournit encore plus de données sapant les affirmations de sécurité de Tesla concernant son système Autopilot.

Les véhicules Tesla exécutant son logiciel Autopilot ont été impliqués dans 273 accidents signalés au cours de l'année écoulée environ, selon les régulateurs, bien plus que ce que l'on savait auparavant. Un rapport qui fournit des preuves concrètes concernant les performances réelles des fonctionnalités futuristes de Tesla.

Les chiffres, qui ont été publiés par la National Highway Traffic Safety Administration pour la première fois, montrent que les véhicules Tesla représentaient près de 70% des 392 accidents impliquant des systèmes avancés d'assistance à la conduite signalés depuis juillet dernier, et la majorité des décès et blessures graves, dont certaines remontent à plus d'un an. Huit des accidents de Tesla ont eu lieu avant juin 2021, selon les données publiées par la NHTSA mercredi.


Certains experts émettent des réserves quant à la sécurité du mode Full Self-Driving de Tesla

Tesla Autopilot est une suite de systèmes qui permet aux conducteurs de céder le contrôle physique de leurs véhicules électriques, bien qu'ils doivent faire attention à tout moment. Les voitures peuvent maintenir la vitesse et la distance de sécurité derrière les autres voitures, rester dans leurs lignes de voie et effectuer des changements de voie sur les autoroutes. Un ensemble étendu de fonctionnalités encore en version bêta, le "Full Self-Driving", ajoute la possibilité de manœuvrer dans les rues urbaines et résidentielles, de s'arrêter aux panneaux d'arrêt et aux feux de circulation, et de faire des virages tout en naviguant d'un point à un autre.

Mais certains experts en sécurité des transports ont exprimé des inquiétudes quant à la sécurité de la technologie, car elle est testée et formée sur les routes publiques avec d'autres conducteurs. Les autorités fédérales ont ciblé Tesla ces derniers mois avec un nombre croissant d'enquêtes, de rappels et même d'avertissements publics dirigés contre l'entreprise.

Le nouvel ensemble de données découle d'une ordonnance fédérale de l'été dernier obligeant les constructeurs automobiles à signaler les accidents impliquant l'assistance à la conduite afin d'évaluer si la technologie présentait des risques pour la sécurité. Il a été constaté que les véhicules de Tesla éteignaient le système avancé d'assistance à la conduite, Autopilot, environ une seconde avant l'impact, selon les régulateurs.

L'ordonnance de la NHTSA obligeait les fabricants à divulguer les plantages où le logiciel était utilisé dans les 30 secondes suivant le crash, en partie pour atténuer la crainte que les fabricants cachent les plantages en affirmant que le logiciel n'était pas utilisé au moment de l'impact.

« Ces technologies sont très prometteuses pour améliorer la sécurité, mais nous devons comprendre comment ces véhicules fonctionnent dans des situations réelles », a déclaré l'administrateur de la NHTSA, Steven Cliff, lors d'un appel aux médias concernant l'ensemble complet de données des fabricants.

Tesla a déclaré qu'Autopilot est plus sûr que la conduite normale lorsque les données d'accident sont comparées. La société a également souligné le grand nombre de décès par accident de la circulation sur les routes américaines chaque année, estimé par la NHTSA à 42 915 en 2021, saluant la promesse de technologies comme Autopilot à « réduire la fréquence et la gravité des accidents de la circulation et sauver des milliers de vies chaque année ».

Les données opposant la conduite normale à une conduite avec le mode Autopilot activée ne sont pas directement comparables, car Autopilot fonctionne en grande partie sur les autoroutes. Le PDG de Tesla, Elon Musk, avait cependant décrit Autopilot comme « sans équivoque plus sûr ».

Des centaines d'employés licenciés

Dans ce qui pourrait passer pour l'une des plus importantes réductions connues dans le cadre d'une vaste réduction des effectifs, Tesla a licencié près de 200 travailleurs, dont la plupart étaient chargés d'étiqueter les données pour aider à former le système d'IA Autopilot de l'entreprise. Ces licenciements sont les dernières pertes d'emplois chez Tesla après que le PDG Elon Musk ait déclaré aux dirigeants de l'entreprise que celle-ci devait réduire ses effectifs d'environ 10 %.

Ces suppressions s'inscrivent dans le cadre d'un effort visant à réduire le nombre d'employés salariés. L'entreprise, dont le siège social se trouve désormais à Austin, au Texas, avait atteint un effectif d'environ 100 000 employés à l'échelle mondiale grâce à la construction de nouvelles usines à Austin et à Berlin.

Le responsable de l'IA et de l'Autopilot de Tesla, Andrej Karpathy, a annoncé le 13 juillet qu'il ne travaillait plus pour le constructeur de véhicules électriques. « Cela a été un grand plaisir d'aider Tesla à atteindre ses objectifs au cours des 5 dernières années et une décision difficile de se séparer », a écrit Karpathy sur Twitter. « Au cours de cette période, Autopilot est passé du maintien de la voie aux rues de la ville et je suis impatient de voir l'équipe exceptionnellement forte d'Autopilot continuer sur cette lancée. »

« Je n'ai pas de plans concrets pour la suite, mais je cherche à passer plus de temps à revisiter mes passions à long terme autour du travail technique en IA, de l'open source et de l'éducation. »

En réponse à Karpathy, le PDG Elon Musk l’a remercié pour son travail.« Merci pour tout ce que vous avez fait pour Tesla ! Ce fut un honneur de travailler avec vous », a écrit Must sur son compte Twitter. Une équipe de scientifiques et d'ingénieurs chevronnés en apprentissage automatique repondait directement de Karpathy, qui avait récemment pris un congé sabbatique de plusieurs mois chez Tesla. Les véhicules Tesla sont responsables de près de 70 % des accidents signalés impliquant des systèmes avancés d'aide à la conduite depuis juin 2021, selon des chiffres fédéraux publiés le mois dernier.

Source : Der Spiegel

Et vous ?

Que pensez-vous de la décision du tribunal ?

Voir aussi :

Elon Musk annonce que Tesla a suspendu toutes les embauches dans le monde et doit réduire le personnel de 10%, ce qui représente près de mille employés
Un tribunal allemand interdit les déclarations publicitaires de Tesla relatives à la conduite autonome et accuse le constructeur automobile de relayer dans ses publicités des allégations trompeuses
Andrej Karpathy, responsable de l'IA chez Tesla, annonce qu'il quitte l'entreprise, après un licenciement de 229 employés de l'Autopilote par Elon Musk

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Doatyn
Membre habitué https://www.developpez.com
Le 22/08/2022 à 17:07
C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.
10  2 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/08/2022 à 11:24
La vraie question intéressante à mon sens est la suivante:

Est-ce que les USA appliquent une loi "Musk"?

Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
10  2 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/05/2023 à 13:40
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
8  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 26/07/2022 à 7:27
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Je ne comprends pas pourquoi un système qui ne serait pas capable de passer l'examen du permis de conduire peut être testé sur les routes par autre chose que des professionnels.
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Un logiciel qui a tué deux motards en 1 mois?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?
Elon Musk est un gourou que certains suivent aveuglément.
Probablement l'attrait de la technologie et l'envie d'être le premier à avoir utiliser ce système fantasmé par la SF depuis des décennies.
Et peut être aussi la charge mentale dont le système libère : Certains soir je serais bien heureux que quelqu'un conduise ma voiture à ma place.
7  1 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 17/02/2023 à 9:38
Ce qui était évident hier devient un fait reconnu aujourd'hui.

Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
7  1 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/07/2022 à 8:18
Tesla produit des véhicules électriques. Ils semblent agréables et en général appréciés de leurs propriétaires. Personnellement j'ai toujours eu deux réticences, la première venant de l'origine du courant consommé, l'autre motivée par la présence d'une immense télé en manière de tableau de bord. Quand je conduis, je regarde la route et le trafic.

Pourquoi s'obstiner a promettre des fonctions qui ne marchent manifestement pas, et aux dépens de vies humaines ?
Il y a quelques années Audi démontrait un système de conduite quasi-autonome sur autoroute en zone de trafic dense. C'était impressionnant et convaincant. Pourtant à ma connaissance ce système n'est toujours pas proposé à la vente et on n'en parle plus beaucoup. Pourquoi ? Peut-être sont-ils plus lucides que les gens de Tesla, peut-être que n'ayant pas de gourou pour les abriter des conséquences de leurs erreurs les ingénieurs font leur boulot ?

Lorsque je constate le comportement de mon correcteur orthographique, je me dis qu'il y a encore du chemin pour qu'un automate de prédiction basé sur des statistiques atteignent un niveau approchant l'intelligence. Alors pour conduire une voiture en milieu ouvert, avec plein de choses vivantes autour, à moi la peur !
6  1 
Avatar de Eric80
Membre confirmé https://www.developpez.com
Le 18/08/2022 à 23:45
et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
https://journalauto.com/constructeur...e-de-niveau-3/
le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.
5  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 28/11/2022 à 11:21
Citation Envoyé par Nancy Rey Voir le message
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Je pense qu'il est regrettable que le plus gros obstacle à la mise en circulation d'un projet automobile peu abouti est un projet privé. Et qu'il faille passer par ce genre de lobbying pour éviter des morts.
Ils ont aussi une communication efficace, ils attaquent par la corde la plus sensible : la sécurité des enfants. Mais je suis même surpris que Tesla ne soit pas allé plus loin sur le sujet. Le premier enfant qui meure à cause du système pourrait provoquer la fin pure et simple du FSD, d'autant plus quand on voit le manque de délicatesse de communication de Musk.
On analyse trop les clés de réussite pas assez les clés d'échec.

Je pense que le FSD ne devrait être mis sur les routes qu'avec des pilotes professionnels ayant connaissances complètes de ce qu'ils font. Cette phase de test ne devrait pas être réalisé par des amateurs, d'autant plus des clients qui ont payé ce gadget, et le considèrent comme tel.
5  0 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0