IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La police bavaroise s'est lancée à la poursuite d'une Tesla en mode Autopilot
Le conducteur était endormi et semblait sous l'emprise de stupéfiants

Le , par Stéphane le calme

75PARTAGES

8  0 
Un conducteur en Allemagne s'est vu retirer son permis après avoir semblé s'être endormi au volant de sa Tesla en mode Autopilot, obligeant la police à le poursuivre.

Le 29 décembre vers 12 h. heure locale, la police a repéré une Tesla roulant sur l'autoroute 70 quittant Bamberg, en Allemagne, et se dirigeant vers Bayreuth, selon un communiqué de presse de la police bavaroise. Les agents ont tenté d'arrêter la Tesla, mais le véhicule ne s'est pas arrêté. La voiture roulait à environ 110 kilomètres par heure et n'a pas ralenti ni accéléré lors de la tentative d'arrêt de la circulation, ont remarqué les responsables.

La Tesla « a gardé la même distance par rapport à la voiture de patrouille devant » pendant qu'elle empruntait l'autoroute, a indiqué la police. Les agents se sont arrêtés à côté de la vitre latérale du conducteur de la Tesla et ont remarqué que le conducteur, identifié uniquement comme un homme de 45 ans, était allongé sur son siège, les yeux fermés et les mains sur le volant.

« Cela a renforcé le soupçon qu'il avait laissé les commandes à l'Autopilot et s'était endormi », a déclaré la police.

Le conducteur s'est finalement réveillé après 15 minutes de poursuite et a suivi les instructions de la police pour s'arrêter. La police pense également que le conducteur était sous l'emprise de stupéfiants.

Une enquête plus approfondie a révélé que le conducteur avait placé un « soi-disant poids de volant » : « Cet appareil est fixé au volant pour tromper le système de sécurité du véhicule en prétendant que votre main est sur le volant », indique le communiqué de presse.

Le conducteur fait l'objet d'une enquête pour mise en danger criminelle de la circulation et son permis a été suspendu dans l'attente d'une audience formelle.

Citation Envoyé par communiqué de la police
Mercredi après-midi, une patrouille de la police de la circulation de Bamberg a contrôlé un conducteur de Tesla de 45 ans qui s'était endormi au volant avec le mode Autopilot activé. L'homme a également montré des anomalies typiques de drogues. Après concertation avec le parquet de Bamberg, une plainte a été déposée contre lui pour mise en danger de la circulation routière.

Le conducteur roulait sur l'A70 en provenance de Bamberg en direction de Bayreuth vers 12 heures lorsque la patrouille de police a voulu le soumettre à un contrôle routier. Il n'a pas répondu aux signaux d'arrêt ou aux klaxons répétés des agents. Il était à noter que le véhicule gardait la même distance par rapport à la voiture de patrouille devant de la jonction Viereth-Trunstadt à la jonction Bamberg-Hafen à 110 kilomètres par heure. Les agents ont découvert que le conducteur de Tesla était allongé sur le siège, les yeux fermés et les mains sur le volant. Cela a renforcé le soupçon qu'il avait laissé les commandes à l'Autopilot et s'était endormi. Après environ 15 minutes, l'homme s'est finalement réveillé et a suivi les instructions de la police. Il a montré des anomalies typiques de drogues lors du contrôle. Les agents ont également trouvé un soi-disant poids de volant dans le plancher. Cet appareil est fixé au volant pour tromper le système de sécurité du véhicule en prétendant que votre main est sur le volant.

Une enquête préliminaire pour délit de mise en danger de la circulation routière a été ouverte contre le conducteur de Tesla. Il doit renoncer à son permis de conduire jusqu'à ce que le tribunal décide.
La police n'en est pas à son premier incident avec une Tesla

En août 2020, un conducteur d’une Tesla Model S en Caroline du Nord a admis avoir regardé un film sur son téléphone alors qu'il utilisait l’Autopilot avant de s’écraser dans un véhicule de police, un autre rappel que la technologie pilote automatique de Tesla a du mal à conduire toute seule. La collision s'est produite juste après minuit, et selon le rapport de la chaîne de télévision CBS 17 de Raleigh, la Tesla a percuté l'arrière du véhicule d’un député, qui a ensuite été poussé dans la voiture de police d'État, également garée sur les lieux.

La police de Caroline du Nord a porté plainte contre un conducteur dont la Tesla a percuté une voiture de police, sur l'autoroute 64 ouest, à la sortie de la ville de Nashville. Le conducteur a admis aux policiers qu'il avait activé la technologie Autopilot de Tesla sur sa Model S et qu'il regardait un film sur son téléphone au moment de l'accident. Heureusement, personne n'a été gravement blessé par l'accident, mais le véhicule de police et la Tesla sont endommagés.


Le conducteur a été accusé d'avoir enfreint la loi de l'État sur le "déplacement" et d'avoir un téléviseur dans la voiture, en faisant référence au téléphone sur lequel le conducteur nommé Devainder Goli regardait un film. La loi sur le "déplacement" consiste à conduire prudemment lorsque l'on dépasse des véhicules d'urgence garés sur le bord de la route, comme l'était la voiture du shérif du comté de Nash.

« Un député du comté de Nash et un policier de la patrouille routière étaient sur le bord de la route lors d'un précédent accident, lorsque la Tesla a heurté le véhicule du député », a rapporté CBS 17. « L'impact a envoyé le véhicule du député dans celui du policier, ce qui a poussé le policier et le député au sol ».

C'est un rappel important qu'aucune voiture sur le marché aujourd'hui n'est entièrement autonome. Les conducteurs doivent être attentifs à la route à tout moment, quel que soit le type de voiture qu'ils possèdent ou le type de technologie d'aide à la conduite dont leur voiture est équipée.

« Il s'agissait d'une simple fermeture de voie et puis soudainement la mort était sur nos pas », a déclaré le shérif du comté de Nash, Keith Stone, d’après CBS 17. Le shérif a déclaré que l'accident devait servir de réveil. « Cela montre que l'automatisation ne remplacera jamais l'attention des automobilistes, qui n'envoient pas de SMS, ne sont pas au téléphone, mais se concentrent sur ce que vous faites, c'est-à-dire sur la conduite », a déclaré Stone.

En juillet de la même année, un véhicule d'un agent de police d'État de l'Arizona a été touché par une Tesla en mode Autopilot, selon son conducteur. Un mois plutôt, une Model 3, alors qu’elle roulait à vive allure avec la technologie Autopilot activée, s’est écrasée dans le toit d'un camion-remorque de couleur blanche renversé et qui couvrait deux voies d'autoroute, un obstacle suffisamment grand pour que la plupart des conducteurs puissent l'éviter étant donné une visibilité claire et le manque de trafic.

Apparemment, l’accident a été causé par le fait que le système Autopilot de Tesla n'a pas détecté le grand objet blanc qui se trouvait juste devant lui en plein jour et par temps clair, d’après la vidéo de l’incident massivement partagée sur les médias sociaux après l’accident. Sur la vidéo, on pouvait voir le véhicule foncer droit dans le camion, avec seulement ce qui ressemble à une tentative solitaire de freinage juste avant l'impact.

En 2019, il y a eu au moins trois incidents similaires impliquant des véhicules Tesla qui se sont écrasés sur des voitures de police. Un premier accident s'est produit en Arizona en juillet et les deux autres dans le Connecticut et le Massachusetts en décembre de cette année-là. Plusieurs autres accidents, pour certains mortels, impliquant le système Autopilot du constructeur, sont à l’actif des véhicules Tesla.


Tesla poursuivi par des agents de police pour « fraude systématique » et « défauts dans les dispositifs de sécurité » avec Full Self-Driving

Le 27 février 2021, une Tesla Model X engagée en mode Autopilot et équipée du système exclusif de dispositifs de sécurité de Tesla a percuté plusieurs agents de police qui participaient à un contrôle routier dans une voie de circulation bloquée sur l'autoroute Eastex au Texas. Selon l'action en justice, tous ont été gravement blessés. Parmi les officiers figurent quatre agents du comté de Montgomery et un agent de police de Splendora. Les agents de police ont poursuivi l'entreprise pour « fraude systématique » et « défauts dans les dispositifs de sécurité de Tesla ».

Selon les plaignants, « la fonctionnalité de ces dispositifs a été largement et irresponsablement surévaluée afin de gonfler le prix de l'action de Tesla et vendre plus de voitures ». Bien qu'il n'y ait pas eu de décès, la poursuite allègue que les agents ont été « gravement blessés » et qu'ils ont besoin d'être indemnisés pour « les blessures graves et les handicaps permanents qu'ils ont subis à la suite de l'accident » lorsque les véhicules stationnés ont été poussés vers l'avant et ont cogné « six personnes et un berger allemand ». La plainte indique que l'officier canin Kodiak « a dû être emmené chez le vétérinaire » tandis que les six personnes ont été emmenées à l'hôpital.

Les véhicules de patrouille stationnés quant à eux « auraient été déclarés en perte totale ». « Même si l'Autopilot était activé à ce moment-là et que les voitures de police avaient des gyrophares, la Tesla n'a pas réussi à engager les fonctions de sécurité de l'Autopilot pour éviter l'accident », mentionne la plainte. « Le véhicule n'a pas appliqué son "freinage automatique d'urgence" pour ralentir afin d'éviter ou d'atténuer l'accident », lit-on également. La plainte a été déposée en septembre 2021 au tribunal de district du comté de Harris. Les plaignants qui ont poursuivi Tesla sont Dalton Fields, Rai Duenas, Kenneth Barnett, Chris Taylor et Daniel Santiago.

Ils poursuivent d'une part Tesla pour avoir mis sur le marché un système de sécurité prétendument « exagéré et dysfonctionnel, avec un angle mort flagrant pour les véhicules d'urgence dont les gyrophares sont activés », et le restaurant Pappas Restaurants d'autre part, alléguant que le conducteur de la Tesla avait « consommé de l'alcool au point d'être manifestement en état d'ébriété ». Selon eux, le conducteur représentait à ce moment-là un danger évident pour lui-même et pour les autres, mais le restaurant a continué à lui servir de l'alcool. Son état l'aurait empêché d'appuyer en urgence sur le frein de la voiture.

Le propriétaire de la voiture n'est pas nommé dans la plainte, probablement en raison de son incapacité à contribuer de manière significative aux 20 millions de dollars de dommages combinés demandés par les plaignants. La plainte prétend que la Model X, et par extension tous les autres véhicules de la société sont défectueux. « Il a été prouvé que les affirmations de Tesla [concernant l'Autopilot et le freinage d'urgence automatique] sont largement et irresponsablement exagérées, voire carrément fausses », affirment les plaignants, qui citent des commentaires de Tesla elle-même et de son directeur général Elon Musk.

Par exemple, Musk avait semblé réagir positivement à la nouvelle selon laquelle un couple s'était filmé en train de faire l'amour dans sa Tesla alors qu'elle était sous le contrôle d'Autopilot en 2019 - ce qu'avait prédit l'expert canadien en sécurité automobile Barrie Kirk environ trois ans plus tôt. « Tesla s'engage dans une fraude systématique pour gonfler le prix de l'action Tesla et vendre plus de voitures, tout en se cachant derrière des divulgations qui disent aux conducteurs que l'on ne peut pas se fier au système », allègue la poursuite. Selon la plainte, Tesla se livre à un jeu tout en sachant que les gens croient facilement ses déclarations.

« Tesla sait que les conducteurs de Tesla écoutent ces affirmations et croient que leurs véhicules sont assez équipés pour se conduire eux-mêmes, ce qui entraîne des blessures potentiellement graves ou la mort », lit-on dans le document de la plainte. Alors que d'autres auraient rejeté la responsabilité de l'accident sur le conducteur, la poursuite prétend que le problème est répandu - faisant référence à 11 autres cas de véhicules Tesla qui ont percuté l'arrière de véhicules d'urgence stationnés, apparemment en raison du fait que le système de vision basé sur une caméra a été aveuglé par leurs gyrophares.

« Il est inconcevable que le défendeur Tesla n'ait pas vu les rapports accessibles au public concernant les nombreux accidents causés par ses véhicules en relation avec des véhicules d'urgence équipés de gyrophares. Le PDG de Tesla a même qualifié l'un des systèmes d'aide à la conduite de Tesla de "pas génial". Le défendeur Tesla et le PDG de la société, Elon Musk, étaient au courant de nombreux incidents concernant le système 'Autopilot', mais n'ont pas rappelé les voitures pour corriger le problème », soulignent les plaignants. La National Highway Traffic Safety Administration (NHTSA) des États-Unis enquêtait alors sur ces collisions.

« Tesla a intentionnellement décidé de ne pas remédier à ces problèmes et doit être tenue responsable et redevable, en particulier lorsqu'elle a une connaissance détaillée des risques et des dangers associés à son système Autopilot. Tesla a admis que son système Autopilot ne parvenait pas toujours à identifier un véhicule d'urgence arrêté. Pourtant, Tesla a pris la décision de ne rappeler aucun de ses véhicules en sachant que le système Autopilot était défectueux et présentait un risque inhérent de blessure pour le public, notamment les premiers intervenants, et les conducteurs de Tesla », indique la plainte.

Source : communiqué de police

Et vous ?

Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?

Voir aussi :

Tesla condamné à une amende de 2 Mns € en Corée du Sud pour publicité mensongère, Tesla a faussement promu et exagéré l'autonomie et la vitesse de recharge de ses voitures électriques

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 10:26
Citation Envoyé par Stéphane le calme Voir le message
Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

Citation Envoyé par Stéphane le calme Voir le message
La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

Je recherche NHTSA sur Google et voici l'extrait afiché :
Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
Je me marre.
7  1 
Avatar de Darkzinus
Expert éminent sénior https://www.developpez.com
Le 05/01/2023 à 15:46
Ce que je trouve dingue dans le modèle économique de Tesla c'est que les gens achètent une voiture et un abonnement pour être bêta testeurs.
5  0 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 11/01/2023 à 14:00
Il est temps que le gouvernement interdise que le pays devienne un jeu d'expérimentation.
C'est dangereux, il y a eu des mort et cela continue, rien n'est fait
5  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:57
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.
5  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 05/01/2023 à 7:54
Citation Envoyé par Stéphane le calme Voir le message
Le délit de fuite en Allemagne doit-il être imputé au conducteur endormi ou à Tesla ? Lorsque le mode Autopilot est activé, qui devrait être responsable ? Pourquoi ?
Aux deux, le conducteur pour ne pas être maitre de son véhicule (et ne pas être en état de l'être), Tesla pour être incapable de suivre le code de la route.
Une situation comme celle-ci pourrait-elle suggérer que la programmation de l'Autopilot n'est pas terminée (intégration de plus de cas de figure dans la boucle if) ?
Un autopilot doit respecter le code de la route. S'il ne le fait pas il n'est pas terminé ou est défaillant.
En tant que professionnels de l'informatique, comment aborderiez-vous ce cas de figure (la police demande à un individu de se garer sur le côté) dans la programmation de l'Autopilot ? Si vous prenez en compte par exemple les gyrophares, des individus mal intentionnés ne pourraient-ils pas se jouer du système en utilisant des gyrophares pour commettre leurs méfaits ? Ou alors si une voiture de police est détectée à proximité, Autopilot devrait-il se désengager et redonner la main au chauffeur pour que lui seul décide quoi faire ?
Pour moi tout ça devrait se régler avec deux règles :
1. Si la Tesla reçoit une information qu'elle n'arrive pas à traiter elle redonne la main au chauffeur
2. La chauffeur doit pouvoir, à tout moment, reprendre la main sur l'autopilot
Autant je n'aime pas Tesla autant je ne peux pas exiger d'elle qu'elle soit plus capable que moi de reconnaitre un véhicule de police légitime d'un illégitime.
4  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 06/01/2023 à 13:07
Citation Envoyé par abriotde Voir le message
Et le FSD est absolument génial, il fait avancer le monde (l'IA notamment).
La question n'est pas là. Les mots ont un sens et un impact sur les comportements. Le Full Self Driving n'est pas encore *du tout* FULL. A ce titre il s'agit de publicité mensongère, et surtout dangereuse vis-à-vis de l'excés de confiance apportée aux utilisateurs.

Si on te vend des lunettes de soleil te promettant un indice de protection 3 "ont adaptées aux cas de forte ou exceptionnelle luminosité solaire (mer, montagne)." mais qu'en réalité c'est du 0 : "la catégorie 0 associée au symbole d’un nuage ne protège pas des UV solaires ; elle est réservée au confort et à l'esthétique", tu risque d'y perdre la vue à cause d'une fausse promesse.
4  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 12/01/2023 à 8:12
Citation Envoyé par nirgal76 Voir le message
Le freinage fantôme est une chose, le carambolage lui est causé par des distances de sécurités non respectées / non adaptés.
Le carambolage est causé par des distances de sécurité ET un freinage fantôme.
La combinaison freinage fantome et distance de sécurité respectée pourrait engendrer un carambolage malgré tout, il suffit que le chauffeur derrière soit peu attentif/fatigué et le temps de réaction nécessaire pour éviter le carambolage est court.

Je me souviens pendant mon stage de fin d'étude avoir eu la peur de ma vie parce qu'en rentrant, alors que je tenais bien ma distance de sécurité (les fameuses deux lignes), la voiture devant moi change de voie subitement et laisse apparaitre une voiture sans permis sur une route à 110. Cette expérience m'a marquée parce qu'elle demande de prendre une décision très vite dans un délai très court, il y avait une voiture derrière moi qui ne respectait pas les distances donc j'ai changé de voie mais je vais être honnête je n'ai pas vérifié que la voie était dispo mais la décision doit être prise en quelques secondes (sans décision je l'aurait percutée en environ 5s, 8s max).
3  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 20/01/2023 à 11:08
Citation Envoyé par Derf59 Voir le message
Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.
Et oui, sauf que le FSD l'a fait pour rien et l'a fait avec une brutalité que l'on aurait pas avec un pneu qui éclate, c'est donc bien de sa faute racine et exclusive.
3  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 06/01/2023 à 15:19
Citation Envoyé par abriotde Voir le message
Tesla est tellement innovant qu'il rends jaloux les autres...
Evidemment que le FSD Tesla n'est pas parfait dans certaines conditions mais ce n'est pas un problème. Le FSD est un assistant qui permet de décharger le conducteurs 95% du temps
Le problème est que :
1. Dans les 5% restants il faut être encore plus attentif que si tu conduis une voiture normale
2. La voiture ne sait même pas te dire quand elle est face à une situation qu'elle ne sait pas gérer.

Donc elle est mieux qu'un chauffeur normal 95% du temps et c'est une arme dans les 5% qui restent, c'est 5% étant un état inacceptable pour une voiture qui partage la route.

Tesla était tellement innovant qu'il rendait jaloux les autres, maintenant c'est un papy qui t'explique qu'il a toujours le génie d'antan.

Citation Envoyé par abriotde Voir le message
L'alternative, c'est une voiture qui utilise des équipements bien plus cher (GPS au centimetre, radar laser, sonar, radar...), un canal de communication avec le monde ultra-fiable et haut débit... pour un résultat utilisable que sur les auto-routes ou les grandes ville mais jamais en rase campagne ou terrain privé...
Ca serait quand meme dingue si Tesla avait eu des radars dans ses voiture et avait décidé de le retirer pour ne se baser que sur des caméras. (Wait What)
Citation Envoyé par abriotde Voir le message
C'est vrai qu'une tel voiture pourra rouler a vitesse normal dans le brouillard (ou en contre jour, ou la nuit sans les phares), mais qui sera d'accord pour lui faire confiance?
Rouler à la limite de vitesse dans une situation dégradée n'a aucun sens. Je suis contre même si elle est en capacité de le faire pour une raison simple : son entourage n'a pas forcément a capacité de perception et il est donc nécessaire de permettre à son entourage de réagir à sa présence.

J'ai du mal à condamner le FSD pour être incapable de conduire sous la neige, une bonne partie des chauffeurs (citadins?) le sont autant. Mais mon dieu, ne dites plus que ce système est pertinent, ce truc ressemble à un projet d'étude super bien réalisé mais pas fini : ca marche quand ça marche, le reste du temps c'est la roulette russe.
2  0 
Avatar de Sylvain_LD
Nouveau membre du Club https://www.developpez.com
Le 07/01/2023 à 11:34
Elon Musk est un homme qui croit que tout peut s'acheter et il ne se gène pas pour vendre des produits qui ne respectent pas les lois.
Sa Tesla prétendument "écologique" est un leurre, l'autonomie est loin de celle annoncée que ce soit l'hiver ou l'été (la clim est un gros consommateur d’énergie).

Quand à la promotion du "Full Self Driving", elle induit les conducteurs en erreur ! Et les petits malins qui ont compris le fonctionnement du système qui qui le leurrent sont comme tous les amateurs de bricolage : des "irresponsables".

Malheureusement c'est pas nos politiques qui prendront les bonnes décisions pour légiférer sur ce genre de produit car ils sont comme beaucoup aveuglés par les publicités soient-elles mensongères ou non et surtout par le lobbying!
3  1