IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière
Selon les données de la National Highway Traffic Safety

Le , par Stéphane le calme

412PARTAGES

13  0 
La National Highway Traffic Safety Administration a publié des données sur la sécurité, ou son absence, des systèmes avancés d'aide à la conduite. Depuis juin 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022. La nouvelle fournit encore plus de données sapant les affirmations de sécurité de Tesla concernant son système Autopilot.

Les véhicules Tesla exécutant son logiciel Autopilot ont été impliqués dans 273 accidents signalés au cours de l'année écoulée environ, selon les régulateurs, bien plus que ce que l'on savait auparavant. Un rapport qui fournit des preuves concrètes concernant les performances réelles des fonctionnalités futuristes de Tesla.

Les chiffres, qui ont été publiés par la National Highway Traffic Safety Administration pour la première fois mercredi, montrent que les véhicules Tesla représentaient près de 70% des 392 accidents impliquant des systèmes avancés d'assistance à la conduite signalés depuis juillet dernier, et la majorité des décès et blessures graves, dont certaines remontent à plus d'un an. Huit des accidents de Tesla ont eu lieu avant juin 2021, selon les données publiées par la NHTSA mercredi.

Auparavant, la NHTSA avait déclaré avoir enquêté sur 42 accidents impliquant potentiellement l'assistance au conducteur, dont 35 incluaient des véhicules Tesla, dans un ensemble de données plus limité qui remontait à 2016.

Sur les six décès répertoriés dans l'ensemble de données publié mercredi, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019.

Certains experts émettent des réserves quant à la sécurité du mode Full Self-Driving de Tesla

Tesla Autopilot est une suite de systèmes qui permet aux conducteurs de céder le contrôle physique de leurs véhicules électriques, bien qu'ils doivent faire attention à tout moment. Les voitures peuvent maintenir la vitesse et la distance de sécurité derrière les autres voitures, rester dans leurs lignes de voie et effectuer des changements de voie sur les autoroutes. Un ensemble étendu de fonctionnalités encore en version bêta, le "Full Self-Driving", ajoute la possibilité de manœuvrer dans les rues urbaines et résidentielles, de s'arrêter aux panneaux d'arrêt et aux feux de circulation, et de faire des virages tout en naviguant d'un point à un autre.

Mais certains experts en sécurité des transports ont exprimé des inquiétudes quant à la sécurité de la technologie, car elle est testée et formée sur les routes publiques avec d'autres conducteurs. Les autorités fédérales ont ciblé Tesla ces derniers mois avec un nombre croissant d'enquêtes, de rappels et même d'avertissements publics dirigés contre l'entreprise.

Le nouvel ensemble de données découle d'une ordonnance fédérale de l'été dernier obligeant les constructeurs automobiles à signaler les accidents impliquant l'assistance à la conduite afin d'évaluer si la technologie présentait des risques pour la sécurité. Il a été constaté que les véhicules de Tesla éteignaient le système avancé d'assistance à la conduite, Autopilot, environ une seconde avant l'impact, selon les régulateurs.

L'ordonnance de la NHTSA obligeait les fabricants à divulguer les plantages où le logiciel était utilisé dans les 30 secondes suivant le crash, en partie pour atténuer la crainte que les fabricants cachent les plantages en affirmant que le logiciel n'était pas utilisé au moment de l'impact.

« Ces technologies sont très prometteuses pour améliorer la sécurité, mais nous devons comprendre comment ces véhicules fonctionnent dans des situations réelles », a déclaré l'administrateur de la NHTSA, Steven Cliff, lors d'un appel aux médias concernant l'ensemble complet de données des fabricants.

Tesla a déclaré qu'Autopilot est plus sûr que la conduite normale lorsque les données d'accident sont comparées. La société a également souligné le grand nombre de décès par accident de la circulation sur les routes américaines chaque année, estimé par la NHTSA à 42 915 en 2021, saluant la promesse de technologies comme Autopilot à «*réduire la fréquence et la gravité des accidents de la circulation et sauver des milliers de vies chaque année ».

Les données opposant la conduite normale au pilote automatique ne sont pas directement comparables, car le pilote automatique fonctionne en grande partie sur les autoroutes. Le PDG de Tesla, Elon Musk, avait cependant décrit Autopilot comme « sans équivoque plus sûr ».

Aucun accident ni aucune blessure impliquant Full Self-Driving, selon Elon Musk

Musk a déclaré en janvier qu'il n'y avait eu aucun accident ni aucune blessure impliquant le logiciel bêta Full Self-Driving, qui a été déployé pour un nombre plus limité de conducteurs à des fins de test. Les responsables de la NHTSA ont déclaré que leurs données ne devaient pas préciser si la conduite entièrement autonome était active au moment de l'accident.


Les rapports présentent une nouvelle fenêtre sur des systèmes comme Autopilot, mais la base de données reste un travail en cours - avec de nombreuses inconnues même dans les données brutes et les questions laissées en suspens. Les données ne se prêtent pas facilement à des comparaisons entre différents constructeurs, car elles n'incluent pas d'informations telles que le nombre de kilomètres parcourus par les différents systèmes d'assistance à la conduite ou l'étendue de leur déploiement dans les flottes des constructeurs automobiles.

Pourtant, les informations donnent aux régulateurs un aperçu plus complet qu'auparavant. Avant, les régulateurs s'appuyaient sur une collecte fragmentaire de données provenant des médias, des notifications des fabricants et d'autres sources sporadiques pour en savoir plus sur les incidents impliquant une assistance avancée à la conduite.

« Cela a révélé que plus d'accidents se produisent que la NHTSA ne le savait auparavant », a déclaré Phil Koopman, professeur d'ingénierie à l'Université Carnegie Mellon qui se concentre sur la sécurité des véhicules autonomes. Il a noté que les rapports peuvent omettre plus d'accidents mineurs, y compris les cintreuses d'ailes.

L'ensemble de données n'inclut pas toutes les informations qu'il serait utile de connaître, mais cela pourrait être une première indication de l'accent mis sur la collecte de plus d'informations et leur utilisation pour améliorer les technologies et les réglementations de sécurité, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud qui étudie les technologies de transport émergentes.

« La promesse de ceux-ci, le potentiel de ceux-ci est en fin de compte de rendre la conduite plus sûre », a-t-il déclaré à propos des technologies d'assistance à la conduite. « C'est une question ouverte de savoir si ces systèmes dans leur ensemble ou des systèmes individuels ont accompli cela ».

Les politiques s'en mêlent

Des entreprises telles que Tesla collectent plus de données que d'autres constructeurs automobiles, ce qui pourrait les laisser surreprésentées dans les données, selon des experts des systèmes ainsi que certains responsables qui se sont exprimés sous couvert d'anonymat pour décrire franchement les résultats. Tesla pilote également une grande partie de la technologie, dont certaines sont livrées en standard sur ses voitures, la mettant entre les mains d'utilisateurs qui se familiarisent plus rapidement avec elle et l'utilisent dans une plus grande variété de situations.

Plusieurs législateurs ont pesé sur le rapport mercredi, certains appelant à une enquête plus approfondie et à d'éventuelles normes de sécurité pour les voitures dotées de la technologie. Le sénateur Richard Blumenthal (D-Conn.) a qualifié les découvertes de « profondément alarmantes ».

« C'est une sonnette d'alarme qui confirme bon nombre des avertissements que nous avons lancés au fil des ans », a-t-il déclaré. « La fréquence et la gravité de ces accidents sont une cause de carte jaune et peut-être de carton rouge sur certaines de ces technologies ».

Blumenthal et le sénateur Edward J. Markey (D-Mass.) ont précédemment critiqué Tesla pour avoir mis des logiciels sur les routes « sans pleinement tenir compte de ses risques et de ses implications ». Lors d'un appel avec les médias mercredi, Markey a dénoncé l'affirmation de Tesla selon laquelle la technologie d'Autopilot rend les voitures plus sûres.

« Ce rapport fournit des preuves supplémentaires qui freinent les affirmations de Tesla », a-t-il déclaré.

Les sénateurs ont envoyé une lettre à la NHTSA, disant qu'ils étaient « profondément troublés » par les données et appelant le régulateur « à utiliser toutes ses autorités d'enquête et de réglementation pour faire la lumière nécessaire sur cette industrie incontrôlable et imposer des garde-fous pour empêcher plus de décès ».

Dans la lettre, les sénateurs ont spécifiquement souligné les 273 accidents « stupéfiants » signalés par Tesla.


Une succession d'accidents

La technologie d'assistance à la conduite a gagné en popularité, car les propriétaires ont cherché à confier davantage de tâches de conduite à des fonctionnalités automatisées, qui ne rendent pas les voitures autonomes, mais peuvent offrir un soulagement de certaines exigences physiques de la conduite. Les constructeurs automobiles tels que Subaru et Honda ont ajouté des fonctionnalités d'assistance à la conduite qui agissent comme un régulateur de vitesse plus avancé, en gardant des distances définies par rapport aux autres véhicules, en maintenant la vitesse et en suivant les lignes de voies marquées sur les autoroutes.

Mais aucun d'entre eux ne fonctionne dans un ensemble de conditions aussi large, telles que les rues résidentielles et urbaines, que les systèmes de Tesla. La NHTSA a révélé la semaine dernière qu'Autopilot de Tesla était installé sur environ 830 000 véhicules datant de 2014.

Autopilot a suscité plusieurs enquêtes réglementaires, notamment sur les collisions avec des véhicules d'urgence en stationnement et la tendance des voitures à s'arrêter pour des dangers imaginaires.

Dans le cadre de son enquête sur les collisions avec des véhicules d'urgence en stationnement, la NHTSA a déclaré qu'elle examinait si Autopilot « pourrait exacerber les facteurs humains ou les risques comportementaux pour la sécurité ».

Autopilot a été lié à des décès dans des accidents à Williston et Delray Beach, en Floride, ainsi que dans le comté de Los Angeles et à Mountain View, en Californie. Les fonctions d'assistance au conducteur ont attiré l'attention de la NHTSA, qui réglemente les véhicules à moteur, et du National Bureau de la sécurité des transports, un organisme indépendant chargé d'enquêter sur les incidents de sécurité.

L'année dernière, les régulateurs fédéraux ont ordonné aux constructeurs automobiles, dont Tesla, de soumettre des rapports d'accident dans la journée suivant l'apprentissage de tout incident impliquant une assistance à la conduite ayant entraîné un décès ou une hospitalisation en raison d'une blessure ou impliquant une personne heurtée. Les entreprises sont également tenues de signaler les accidents impliquant la technologie qui comprenait le déploiement d'un coussin gonflable ou les voitures qui ont dû être remorquées.

L'agence a déclaré qu'elle recueillait les données en raison des « risques uniques » de la technologie émergente, afin de déterminer si les fabricants s'assurent que leur équipement est « exempt de défauts qui présentent un risque déraisonnable pour la sécurité des véhicules à moteur ».

Les constructeurs automobiles et les quincailliers ont signalé 46 blessés dans les accidents, dont cinq blessés graves. Mais le taux total de blessures pourrait être plus élevé – 294 des accidents ont eu un nombre « inconnu » de blessures.

Un décès supplémentaire a été signalé, mais les régulateurs ont noté qu'il n'était pas clair si la technologie d'assistance à la conduite était utilisée.

Honda a signalé 90 accidents au cours de la même période impliquant des systèmes avancés d'assistance à la conduite, et Subaru en a signalé 10.

Dans un communiqué, le porte-parole de Honda, Chris Martin, a appelé à la prudence lors de la comparaison des données des rapports d'accident des entreprises, notant que les entreprises ont différentes façons de collecter des informations. Les rapports de Honda « sont basés sur des déclarations de clients non vérifiées concernant l'état des systèmes ADAS au moment d'un accident signalé », a-t-il déclaré.

Certains systèmes semblent se désactiver dans les moments précédant un crash, permettant potentiellement aux entreprises de dire qu'ils n'étaient pas actifs au moment de l'incident. La NHTSA enquête déjà sur 16 incidents impliquant Autopilot où des véhicules Tesla ont percuté des véhicules d'urgence en stationnement. En moyenne, dans ces incidents, la NHTSA a déclaré*: « Autopilot a interrompu le contrôle du véhicule moins d'une seconde avant le premier impact ».

Les régulateurs ont également publié des données sur les accidents signalés par les systèmes de conduite automatisés, communément appelés voitures autonomes. Ces voitures sont beaucoup moins courantes sur les routes, chargées d'équipements sophistiqués et non disponibles dans le commerce. Au total, 130 accidents ont été signalés, dont 62 de Waymo, une société sœur de Google appartenant à Alphabet (maison-mère de Google).

Le porte-parole de Waymo, Nick Smith, a déclaré dans un communiqué que la société voyait l'intérêt de collecter les informations et a déclaré que « toute exigence de déclaration devrait être harmonisée dans toutes les juridictions américaines afin de limiter la confusion et de permettre potentiellement des comparaisons plus significatives, et les efforts de la NHTSA sont une étape vers la réalisation de cet objectif ».

Le rapport sur les systèmes de conduite automatisée ne fait état d'aucun décès et d'un blessé grave. Il y a également eu un rapport d'accident de conduite automatisée impliquant Tesla, qui a testé des véhicules autonomes dans des capacités limitées, bien que les circonstances de l'incident ne soient pas immédiatement claires.

Dans les accidents où l'assistance avancée à la conduite a joué un rôle et où de plus amples informations sur la collision étaient connues, les véhicules sont le plus souvent entrés en collision avec des objets fixes ou d'autres voitures. Parmi les autres, 20 ont percuté un poteau ou un arbre, 10 animaux ont été percutés, deux ont percuté des véhicules d'urgence, trois piétons ont été percutés et au moins un véhicule a percuté un cycliste.

Lorsque les véhicules ont signalé des dommages, c'était le plus souvent à l'avant de la voiture, ce qui a été le cas dans 124 incidents. Les dommages étaient plus souvent concentrés sur l'avant gauche, ou côté conducteur, de la voiture, plutôt que sur le côté passager.

Les incidents ont été fortement concentrés en Californie et au Texas, les deux États les plus peuplés ainsi que les endroits américains où Tesla a élu domicile. Près d'un tiers des accidents impliquant l'assistance au conducteur, 125, se sont produits en Californie. Trente-trois ont eu lieu au Texas.

Source : NHTSA

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

Tesla licencie un employé qui a publié sur YouTube des vidéos d'un accident impliquant le Full Self-Driving et lui coupe également l'accès à la version bêta du FSD
Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis, les accidents ont fait 10 morts depuis 2016
Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot" après la mort de trois personnes dans un accident impliquant un model S

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de walfrat
Membre émérite https://www.developpez.com
Le 14/03/2024 à 9:19
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On peut aussi dire qu'il s'agit du retour de bâton des campagnes d'Elon Musk sur ses voitures.

On nous a noyés a une époque sur les Tesla, l'autopilot, la démonstration de la solidité des vitres etc.
12  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 25/08/2023 à 8:19
Bis repetita

Je ne suis même plus étonné, et presque plus révolté de lire ça.
Supprimons les traces pour que ça n'existe plus.
La méthode est redoutable et paye à long terme.
7  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 12/06/2023 à 11:44
L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
Et a quel moment tu continues à faire une confiance aveugle à quelque chose qui te semble défaillant

J'ai que l'autopilote de base sur ma Tesla et franchement c'est a peine mieux que ce que font les autres avec des systèmes plus traditionnel. Le maintien dans les lignes est le meilleurs que j'ai pu essayer. Le régulateur adaptatif est, comme tous les autres ,inconfortable dès qu'il y'a du traffic. Et comme tous les autres systèmes on se prend régulièrement des ralentissement, voir des freinage intempestif car la voiture n'a pas été capable de comprendre qu'il n'y avait pas de danger.
Les 2 cas les plus typiques :
Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.

J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 12/06/2023 à 12:26
Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

Peut-être qu'il serait temps de remettre l'usage de la technologie à plat lorsque les inconvénients sont des morts d'êtres humains évitables par un être humain.

Mettre une technologie en Beta à la disponibilité de tous, c'est criminel lorsqu'il s'agit de sécurité routière. Et de tous les accidents évités par l'Autopilot et le Full Self Driving, combien auraient pu être évités par un être humain ? Pour moi, la technologie est loin d'être au point et nécessite plus de tests hors du grand public pour envisager les cas de figure les plus courants afin de sécuriser au maximum et surtout bien mieux que ce qui est vendu actuellement.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/06/2023 à 17:49
A la lecture de ce score déplorable, une seule question me vient à l'esprit:

Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?
4  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 15/03/2024 à 17:42
Citation Envoyé par Uther Voir le message
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
On est bien d'accord, c'est du piège à clics, mais je suis content de me faire piéger parce que ça m'intéresse de savoir comment éviter les accidents mortels.

Par ex, on note que sur les teslas
- l'ouverture des portes est électrique (et le dispositif d'ouverture d'urgence mécanique est caché quasi impossible à trouver dans la panique).
- les vitres sont électriques et incassables même avec un marteau.
- il n'y a pas de comme sur les Renault etc une bague à tirer ou un bouton à presser et un levier à glissière pour débloquer la marche arrière, mais un petit levier sous le volant avec deux mouvements : avant, arrière, afin de se déplacer logiciellement dans une liste d'états. Il est donc facile de faire une fausse manip de marche arrière accidentellement (sur une voiture à forte accélération ça peut ne pas pardonner, en plus ça cale pas).

ça fait beaucoup d'éléments pour conclure que même si tu es jeune et fort, si tu dois sortir en urgence d'une tesla ou voiture avec autant de défauts en urgence avec une panne électrique (incendie, eau), c'est la fin.

Je travaille avec des machines complexes qui peuvent créer divers accidents graves et qui bien sûr sont buguées. Au moins il y a un gros bouton rouge "panique" coupe circuit (et ça sert...). Parce que c'est pas dans la panique, quand toutes les sécurités logicielles sont en train de planter qu'on va trouver une solution plus intelligente que taper sur un gros bouton.

PS : On pourrait penser que c'est de la parano etc. Il se trouve que pas plus tard que la semaine dernière, je garais une électrique en pente. Une défaillance électronique est survenue pendant la marche avant avec perte de toutes les commandes et de l'assistance, passage automatique en roue libre, arrêt moteur. Le temps de se ressaisir et de piler plus fort, la voiture avait reculé de 20 cm dans une butée. Heureusement que c'était pas le bord d'un lac hein. Ce n'est que quelques heures après la panne que la voiture a décidé d'afficher un message sibyllin style technical intervention now avant de s'éteindre.
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/06/2023 à 17:14
Citation Envoyé par smarties Voir le message
En dehors du souci majeur de sécurité du système il y a que des avantages :
- trafic plus fluide
Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
Citation Envoyé par smarties Voir le message
- réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

Citation Envoyé par smarties Voir le message
- prédiction plus fiable des comportements
Pas besoin de connecter les voitures pour ça.

Citation Envoyé par smarties Voir le message
La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

Citation Envoyé par smarties Voir le message
De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.

à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.
3  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 14/03/2024 à 8:47
C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
9  6 
Avatar de Aurelien.Regat-Barrel
Expert éminent sénior https://www.developpez.com
Le 18/03/2024 à 14:46
PDG milliardaire de la société de transport maritime [...] s'est tragiquement noyée [...] dans un étang
c'est quand même pas banal
3  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 8:09
Citation Envoyé par Stéphane le calme Voir le message
Cette décision fait suite à un début d'année difficile pour le constructeur de voitures électriques. Tesla a déclaré avoir effectué environ 387 000 livraisons à ses clients au cours du premier trimestre 2024, manquant ainsi les attentes du marché d'environ 13 %. Il s'agit de la première baisse des livraisons en près de quatre ans.
L'article parle beaucoup de Musk et Twitter mais je vois une autre chose :
Dans mon entreprise Tesla est le seul constructeur automobile qui propose des voiture conformes aux règles (5 portes, fourchette de prix etc) qu'on ne peut pas commander. Leur délai de livraison (il y a deux ans) était absurdement long alors que les autres constructeurs avaient déjà des délais qui montaient facilement à 12-18 mois.
Avant qu'on ne puisse plus les commander il fallait venir avec un devis pour chaque couleur parce que Tesla produit des séries de voitures par couleur et choisir la mauvaise couleur pouvait ajouter des mois de livraisons.

Et je soupçonne qu'ils payent aujourd'hui l'amateurisme d'hier, parce que oui dans l'industrie automobile être incapable de produire une voiture noire, un rouge puis une blanche est de l'ordre de l'amateurisme.

Je peux aussi parler de la voiture qui annonce une autonomie plus élevée que la réalité qui a beaucoup frustré ses conducteurs.

Donc je penses que les communications de Musk sur Twitter freinent quelques acheteurs potentiels mais son abandon (réél ou perçu) de Tesla en est une cause bien plus importante.
Et à la fin il assume ses conneries en virant 14 000 personnes, la "décision a été difficile" mais s'est il posé la question de sa responsabilité dans l'histoire?
3  0