Uber va arrêter les tests de sa voiture autonome « indéfiniment » en Californie, en Pennsylvanie et à Toronto,
Après l'accident mortel d'Arizona

69PARTAGES

16  0 
Après avoir suspendu ses activités de conduite autonome sur tous les marchés à la suite d'un accident mortel qui a eu lien en Arizona, Uber a décidé de ne pas renouveler son autorisation d’opérer avec sa voiture autonome en Californie. L’autorisation actuelle d'Uber en Californie expire le 31 mars.

« Nous avons volontairement suspendu nos activités de conduite autonome, y compris en Californie, immédiatement après l'incident de Tempe », a déclaré un porte-parole d'Uber. « Compte tenu de cela, nous avons décidé de ne pas présenter une nouvelle demande de permis en Californie en sachant que nos véhicules autonomes ne vont pas opérer dans l'État dans un avenir immédiat. »

La décision d'Uber de ne pas présenter de nouvelle demande vient après une lettre que le DMV a envoyée au directeur des affaires publiques d'Uber, Austin Heyworth. La lettre porte sur l'accident de voiture mortel qui s'est produit à Tempe, en Arizona, la semaine dernière.

Rappelons que le Department of Motor Vehicles (DMV) est, pour chaque État des États-Unis, l'organisme public chargé, au niveau de l'État, de l'enregistrement des véhicules et des permis de conduire.


« En plus de cette décision de suspendre les essais dans tout le pays, Uber a indiqué qu'il ne renouvellera pas son autorisation actuelle pour tester des véhicules autonomes en Californie », a expliqué Brian Soublet,avocat général adjoint du Département des véhicules automobiles de Californie. « Selon les termes de son autorisation actuelle, l'autorisation d'Uber pour tester les véhicules autonomes sur les routes publiques de la Californie se terminera le 31 mars 2018. »

Il faut également noter la décision de l'Arizona de bloquer les voitures autonomes d'Uber dans sa ville. Dans la lettre du gouverneur de l'Arizona Doug Ducey au PDG d'Uber, Dara Khosrowshahi, Ducey a déclaré que la vidéo de l'accident était « inquiétante et alarmante ». Il a ajouté que « l'incident qui a eu lieu le 18 mars est un échec incontestable. »

La lettre envoyée par la Californie indique que Uber a également « suspendu indéfiniment » ses tests en Pennsylvanie – la maison de son centre de recherche de Pittsburgh –, en Arizona et à Toronto.

« Avant de reprendre les essais de véhicules autonomes en Californie, Uber doit demander une nouvelle autorisation de tests de véhicule autonome », a expliqué Brian Soublet. « Toute demande de nouvelle autorisation devra tenir compte des analyses de suivi ou des enquêtes sur le récent accident survenu en Arizona et pourrait également nécessiter une rencontre avec le ministère.»

Source : lettre adressée à Uber

Et vous ?

Qu'en pensez-vous ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Anselme45
Membre expérimenté https://www.developpez.com
Le 30/03/2018 à 10:32
Citation Envoyé par Stéphane le calme Voir le message

« Nous avons volontairement suspendu nos activités de conduite autonome, y compris en Californie, immédiatement après l'incident de Tempe », a déclaré un porte-parole d'Uber. « Compte tenu de cela, nous avons décidé de ne pas présenter une nouvelle demande de permis en Californie en sachant que nos véhicules autonomes ne vont pas opérer dans l'État dans un avenir immédiat. »
Ouais, cela fait surtout penser à une "capitulation sans condition en rase campagne" à la mode "armée française en mai 1940"!

Pour résumer: Uber reconnait son échec en essayant d'en minimiser les conséquences

Il faut avouer que lorsque l'on s'arrête un instant sur la photo d'une voiture Uber autonome avec sa montagne de capteurs sur le toit, style "usine à gaz", pour essayer de remplacer le conducteur (chose qu'elle est impossible de faire, puisque dans les cas critique, c'est à l'humain de rependre les commandes), on ne peut que rester sceptique.
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 30/03/2018 à 10:51
Citation Envoyé par Anselme45 Voir le message
Il faut avouer que lorsque l'on s'arrête un instant sur la photo d'une voiture Uber autonome avec sa montagne de capteurs sur le toit, style "usine à gaz", pour essayer de remplacer le conducteur (chose qu'elle est impossible de faire, puisque dans les cas critique, c'est à l'humain de rependre les commandes), on ne peut que rester sceptique.
Absolument toutes les voitures autonomes en test par toutes les équipes de recherches de toutes les entreprises en sont tjrs à avoir le contrôle humain en cas de situations critiques.
C'est bien pour cela que cela s'appelle des tests.
Après, chaque équipe n'en est pas forcément au même niveau mais quoiqu'il arrive, durant les tests, un humain (qui se fait royalement chier et s'en retrouve distrait comme le cas de l'accident Uber) est pour le moment nécessaire.

Et c'est là où les aides à la conduites peuvent avoir un effet contraire à celui souhaité.
Sur ma voiture, j'ai une assistance pour le suivi de fil avec le régulateur de vitesse et je me suis fait la peur de ma vie sur l'autoroute.
Je me faisais tellement chier à ne rien faire car la voiture était en autonomie sur plus de 300km d'ennui sur l'autoroute en vitesse constante en quasi ligne droite permanente... Tout comme le chauffeur d'Uber, je n'avais plus du tout la tête à la conduite et lorsqu'il a fallu reprendre le contrôle quand un poids lourd a changé brutalement de voie sans clignotant, il m'a fallu un temps de dingue pour réagir. Un temps nettement plus long qu'en temps normal où j'aurai eu toute mon attention sur la route et la conduite.
De puis, j'ai totalement désactivé ces 2 assistances que je juge dangereuses.
Je n'utilise que le limitateur de vitesse qui me permet de me focaliser sur la route et la conduite sans avoir à contrôler mon compteur toutes les minutes pour ne pas me chopper de PV.
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 30/03/2018 à 10:53
Citation Envoyé par Saverok Voir le message
snip
Entièrement d'accord. Soit on automatise à 100%(et on y est pas encore), soit on automatise pas du tout. Le juste milieu est un danger majeur.
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 30/03/2018 à 11:02
Citation Envoyé par el_slapper Voir le message
Entièrement d'accord. Soit on automatise à 100%(et on y est pas encore), soit on automatise pas du tout. Le juste milieu est un danger majeur.
On sera quand même obligé de passer par là. Et puis le "milieu" comme tu dis sera toujours moins dangereux que de ne rien automatiser du tout, l'homme fait beaucoup trop d'erreur.
Avatar de Darkzinus
Expert éminent https://www.developpez.com
Le 30/03/2018 à 11:13
Citation Envoyé par el_slapper Voir le message
Entièrement d'accord. Soit on automatise à 100%(et on y est pas encore), soit on automatise pas du tout. Le juste milieu est un danger majeur.
Tout à fait ! Comment rester concentré sur ce que fait l'IA quand on ne fait strictement rien !
Avatar de Darkzinus
Expert éminent https://www.developpez.com
Le 30/03/2018 à 11:14
Citation Envoyé par Matthieu76 Voir le message
Et puis le "milieu" comme tu dis sera toujours moins dangereux que de ne rien automatiser du tout, l'homme fait beaucoup trop d'erreur.
Ca reste à voir ça ... L'expérimentation est à petite échelle pour l'instant du coup en déduire des statistiques sur les systèmes actuels ...
Avatar de Zirak
Inactif https://www.developpez.com
Le 30/03/2018 à 11:27
Citation Envoyé par Darkzinus Voir le message
Ca reste à voir ça ... L'expérimentation est à petite échelle pour l'instant du coup en déduire des statistiques sur les systèmes actuels ...
Oui, surtout que pour l'instant, on test les réactions des voitures autonomes par rapports aux piétons, aux cyclistes, aux autres véhicules conduits par des humains, et aux éventuels événements pouvant se produire lorsque l'on conduit.

Après il faudra encore tester comment les véhicules autonomes réagissent quand il y a une plus grosse mixité entre véhicules autonomes et conducteurs humains, puis ce qui se passe quand il y a surtout (voir exclusivement) des véhicules autonomes, par exemple, est-ce qu'il y a des risques d'ordre contradictoires lorsque plusieurs véhicules de ce genre sont impliqués dans une situation pouvant être dangereuse ou est-ce qu'ils seront capables de bien se reconnaître (même entre différents constructeurs) pour arriver à une situation où justement les accidents dépendant des véhicules eux-mêmes ne pourront plus arriver, et le cas échéant, comment gérer les autres sources potentiels de dangers si plusieurs véhicules autonomes sont amenés à réagir.

Bref, il y en a encore effectivement pour un moment.
Avatar de sergio_is_back
Membre chevronné https://www.developpez.com
Le 30/03/2018 à 12:21
Citation Envoyé par Darkzinus Voir le message
Tout à fait ! Comment rester concentré sur ce que fait l'IA quand on ne fait strictement rien !
On entend beaucoup parler d'IA avec les voitures autonomes mais cela n'en est pas : C'est du Deep Learning ce qui n'est pas du tout la même chose
on peut rapprocher cela du concept "d'IA faible" -> On a juste l'impression que la voiture est "intelligente"

La voiture ne "prend pas" de décision, elle reconnait une situation particulière déjà apprise et agit en conséquence (obstacle = arrêt)
C'est bien pour cela que les voiture on besoin de parcourir des millions de kms pour emmagasiner des données.

Si c'était de "l'intelligence artificielle pure", il suffirait juste de lui fournir les règles du code de la route, elle pourrait se débrouiller toute seule
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 30/03/2018 à 14:50
Citation Envoyé par sergio_is_back Voir le message
On entend beaucoup parler d'IA avec les voitures autonomes mais cela n'en est pas : C'est du Deep Learning ce qui n'est pas du tout la même chose
Je suis désolé mais intelligence artificielle et Deep Learning sont étroitement liés, toutes intelligence, artificielle ou non est obligé de passer par du deep learning. Un bébé doit entendre des milliers de mots avant de savoir parler, c'est du deep learning ! On parle d'intelligence dès qu'il y a apprentissage puis déduction. La voiture apprends sur des exemples puis en déduit quoi faire en situation réel, c'est ça l'intelligence !
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 30/03/2018 à 16:09
Citation Envoyé par sergio_is_back Voir le message
On entend beaucoup parler d'IA avec les voitures autonomes mais cela n'en est pas : C'est du Deep Learning ce qui n'est pas du tout la même chose
J'ai l'impression que tu t'inventes ta propre définition de l’intelligence artificielle. D'après la définition habituelle de intelligence artificielle, le deep learning est bien une des façons de faire de l’IA, et même celle qui marche le mieux actuellement.

Citation Envoyé par sergio_is_back Voir le message
La voiture ne "prend pas" de décision, elle reconnait une situation particulière déjà apprise et agit en conséquence (obstacle = arrêt).
Si c'était de "l'intelligence artificielle pure", il suffirait juste de lui fournir les règles du code de la route, elle pourrait se débrouiller toute seule
Avec cette définition l'humain n'est pas non plus une créature intelligente. Pour information l'humain aussi passe les premiers temps de sa vie a apprendre a reconnaitre les formes, éviter les obstacles, ... et même l'apprentissage du code de la route n'est pas si évident que ça ce qui fait qu'on a du imposer un examen pour ça.
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web