Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine
Et sa colonisation de Mars comme un plan de secours

Le , par Michael Guilloux, Chroniqueur Actualités
Comme on peut le voir dans certains jeux vidéo, si l’on se projette dans quelques siècles à venir, on verra la civilisation humaine dominée par des extraterrestres. Mais pour Elon Musk, ces extraterrestres pourraient être le fruit de l’intelligence artificielle, si rien n’est fait dès maintenant pour contenir cette technologie. Le visionnaire et milliardaire de la Tech vient en effet, une nouvelle fois, de tirer la sonnette d’alarme sur l’intelligence artificielle (IA) et les risques qu’elle présente pour l’humanité.

En octobre 2014, Elon Musk avait déjà déclaré que le nucléaire serait moins dangereux que l’IA. Trois ans plus tard, le patron de SpaceX s’est encore plus ancré dans sa position, en affirmant que l’IA est un « risque fondamental pour la civilisation humaine ». Elon Musk s’est exprimé à l’occasion du National Governors Association Summer Meeting, une conférence des gouverneurs américains qui s’est tenue récemment. Son intervention a porté sur divers sujets notamment les voitures autonomes et l’IA.


À propos des voitures autonomes sur lesquelles portait une grande partie de son intervention, le patron de Tesla est convaincu que dans 20 ans, posséder une voiture qui n’est pas autonome sera comme posséder un cheval aujourd'hui. « Les gens qui auront des voitures non autonomes [seront] comme les gens qui ont des chevaux [aujourd’hui] », a-t-il dit. « Il serait tout simplement inhabituel d’utiliser [les voitures non autonomes] comme moyen de transport. » En ce qui concerne les dangers de cette technologie, Elon Musk pense que le plus grand risque serait un « piratage à l'échelle de la flotte » du logiciel qui les contrôle. Il est toutefois plus pessimiste quand il s’agit de l’IA, en faisant allusion à ces technologies autonomes dont l’intelligence pourrait ne pas être maitrisée par les humains.

Elon Musk a demandé au gouvernement de réglementer de manière proactive l'intelligence artificielle avant que les choses n'aillent trop loin. « En général, voici la façon dont les réglementations sont mises en place », explique-t-il. « Un certain nombre de mauvaises choses se produisent, il y a un tollé public et, après de nombreuses années, une agence de réglementation est mise en place pour réglementer cette industrie. Cela prend une éternité. Cela a été mauvais par le passé, mais pas quelque chose qui représentait un risque fondamental pour l'existence de la civilisation. L'IA est un risque fondamental pour l'existence de la civilisation humaine », dit-il.

Pour l’entrepreneur en série, cette approche réactive de s’attaquer aux problèmes ne devrait pas être adoptée dans le cas de l’IA. La société ne devrait pas attendre « jusqu'à ce que les gens voient des robots qui descendent dans la rue en tuant des gens », avant d’agir. Pour faire face aux problèmes de l’intelligence artificielle, il propose plutôt d’agir maintenir avant que ça soit trop tard. « L’IA est un cas rare où je pense qu'il faut être proactif dans la réglementation plutôt que réactif. Parce que je pense qu'au moment où nous serons réactifs dans la réglementation de l'IA, il sera trop tard. »

Comme solution, Elon Musk propose avant tout d’essayer d’apprendre autant que possible au sujet de l’intelligence artificielle. Il dit par ailleurs que son désir de coloniser la planète Mars est, en partie, un plan de secours au cas où l’IA parvient à prendre le dessus sur l’Homme sur Terre.

Ci-dessous, la vidéo sur le National Governors Association Summer Meeting. Allez à la 43e minute pour écouter Elon Musk.


Sources : Fortune, Inquisitr

Et vous ?

Que pensez-vous des déclarations d’Elon Musk ?
L’IA présente-t-elle autant de risques qu’il le pense ?
Si oui, la colonisation de la planète Mars est-elle un plan de secours viable ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de super_navide super_navide - Provisoirement toléré https://www.developpez.com
le 17/07/2017 à 12:52
Evidemment qu'Elon Musk pense ça des IAs, car elles remettront forcement en cause tous les pouvoirs de décisions.
Avec une IA suffisamment avancé il y aura plus de besoin de manager/directeur/politique enfin plus besoins de gens qui décident pour nous...
Je pense que ça sera pas pire .....
De toute façon contre l'IA ils pourra rien y faire vu qu'il n'a aucune connaissance réelle de comment elle fonctionneront.
Une IA (singularité ) avec l'évolution de la technologie , pourra facilement être mise au point par une petite structure hors de contrôle de ses gens là, donc je comprend pourquoi il balise leurs jour sont compté.

A votre avis pourquoi on nous bassine avec des films catastrophe sur les IA, pour qu'on soit formaté a " l'humain c mieux qu'une IA pour diriger , on peut avoir plus confiance en l' humain qu’envers l'IA. "
Avatar de laerne laerne - Membre éclairé https://www.developpez.com
le 17/07/2017 à 14:48
Citation Envoyé par super_navide Voir le message
Avec une IA suffisamment avancé il y aura plus de besoin de manager/directeur/politique enfin plus besoins de gens qui décident pour nous...
Je pense qu'on peut sans trop de risque dire que l'humanité est un problème NP. Donc une IA qui arrivent à prendre des décisions, bien que meilleure, le fera avec une méthode faillible, et elle est donc responsable des résultat. Sauf si un humain est au bout de la chaîne décisionnelle pour valider le tout. Je n'espérerais pas trop vite de voir les politiciens disparaître.
Avatar de MaximeCh MaximeCh - Membre actif https://www.developpez.com
le 17/07/2017 à 15:24
A titre personnel je considère Elon Musk et ses pairs comme un risque fondamental pour l'existence de la civilisation humaine.
Avatar de a028762 a028762 - Membre averti https://www.developpez.com
le 17/07/2017 à 15:27
Encore la tarte à la crème de la planète Mars comme réponse aux problèmes terrestres !
Cela fait combien de temps qu'on a touché la lune et qu'on n'y est pas retourné ? 1969 ?
Alors, la planète Mars, avec un voyage qui prendrait des mois, coûterait une fortune , dont on n'est pas sûr de revenir ?
Elon Musk contribue notablement aux voitures autonomes ... donc au déploiement de l'IA !
Quel animateur de buzz !
Avatar de TiranusKBX TiranusKBX - Expert confirmé https://www.developpez.com
le 17/07/2017 à 15:55
Pour envoyer plein de monde rapidement sur mars on sait faire mais c'est bien radioactif comme méthode(Projet Orion), le problème est: comment permettre aux migrants sur Mars une capacité de survie supérieure à quelques jours
Avatar de loukoum82 loukoum82 - Membre habitué https://www.developpez.com
le 17/07/2017 à 16:29
Elon Musk contribue notablement aux voitures autonomes ... donc au déploiement de l'IA !
Les voitures autonomes ne sont pas équipées d'une IA...
C'est juste un programme sophistiqué conçu pour remplir une tâche et résoudre un problème précis. On est loin d'une IA qui a passé le test de Turing...

Mais je suis d'accord qu'Elon Musk, si un jour IA il y a capable de nous exterminer, aura contribué à la répandre avec tous ses véhicules connectés.
Avatar de Orionos Orionos - Membre régulier https://www.developpez.com
le 17/07/2017 à 17:10
Je pense qu'il est important de souligner qu'il parle de risque, pas directement de danger.
Donc il ne considère pas forcement que c'est dangereux mais potentiellement dangereux.

Je pense quand même que c'est pas un risque fondamentale, du moins comparé aux autres risques actuels. Par exemple je pense que le nucléaire est plus dangereux que l'IA. Dans les deux cas c'est puissant, donc une défaillance / dérive est théoriquement possible... Savoir si l'un et plus risqué que l'autre c'est de la science au doigt mouillé je pense pas que ce soit un débat très intéressant
Avatar de TheLastShot TheLastShot - Membre averti https://www.developpez.com
le 17/07/2017 à 18:40
@loukoum82: Sauf que la définition de l'IA est bien plus complexe que "passer le test de turing"... Ce que tu considères aujourd'hui comme "un programme sophistiqué" n'est autre que l'IA d'hier. Plus les recherches en IA avance, moins ils y d'IA et plus il y a d'automatisation, non pas parce c'est "juste de l'automatisation" mais plus parce que dans la tête de ceux qui n'y connaissent rien (rien de péjoratif là-dedans, il est normal de ne pas être tous des spécialistes de tous les domaines) l'IA est quelque chose de complexe, une simulation d'une d'intelligence infiniment plus intelligente que nous, etc. et le faut de réussir à concevoir une IA (réseaux de neurone, agents, etc.) rends la chose moins impressionnante car on comprend son fonctionnement, et on la retire donc de la catégorie "IA".
D'autre part, limiter la définition de l'IA au "simple" test de Turing est très restrictif, car ça ne concerne que les échanges verbaux (imaginons un être humain incapable de communiquer verbalement (muet, sourd, incapable d'écrire, etc.) mais d'intelligence normal, il serait de fait incapable de passer le test de Turing, mais ça n'en fait pas moins un être intelligent.
La reconnaissance de notre environnement, la prise de décision, etc. font partie de notre intelligence ! Et c'est justement là-dessus que se basent les voitures automatiques.
De plus dire que ces programmes ne sont prévu que pour résoudre un "problème spécifique" fait croire que le problème est en soi très simple, ce qui élimine la réalité de la chose. Pour une conduite automatique, il est d'abord être capable de reconnaître son environnement (voitures alentours, signalisation, ...) donc à ce niveau on a déjà de la reconnaissance et de l'apprentissage. Il faut aussi prendre les bonnes décisions (je ralenti, je tourne, je fonce dans le faussé (oui parce que par défaut, le véhicule est prévu pour sacrifier le conducteur s'il faut choisir entre lui et un piéton)), donc en plus de l'apprentissage, il faut analyser la situation en temps réelle.

Alors oui, la voiture est peut-être pas capable de te tailler une bavette comme le ferait un taxi, mais dire qu'elle n'embarque pas d'IA c'est autre chose...

Sinon concernant l'article en lui-même c'est toujours la même chose. Dès qu'un mec a une minimum de notoriété il se croit (ou on le fait passer pour) un expert dans tous les domaines. Je rappel juste qu'à la base ce cher monsieur est ingénieur, certes, mais en physique, pas en informatique et encore moins dans une domaine aussi complexe que l'intelligence artificielle. Après il a peut-être étudié l'IA en autodidacte, ce n'est pas interdit, mais à moins de prouver qu'il a la moindre connaissance réelle dans ce domaine, il serait gentil de garder ses opinions dans le cadre de son "expertise". (c'est un peu comme si moi, pauvre petit ingé au IA je me permettait d'aller critiquer les travaux des neurologues alors que je n'y connais rien (sauf que ma renommée était proche de zéro, on m'enverrait juste bouler)).
De plus, de mon point de vue ce genre de discours me parait plus narcissique qu'autre chose. Comme si le fait d'alerter le peuple, nous pauvres ignorants, permettait à ce genre d'individus (même chose pour Stephen Hawking qui a plus ou moins la même position concernant sur l'IA (encore un physicien, à croire qu'on leur apprend ça pendant leurs études ?)) de se sentir supérieur car eux seuls sont capables de comprendre le réel danger que cache une IA supérieurement intelligente à l'homme et qui donc prendrait des décisions à notre place, que nous sommes incapables même d'imaginer ! Mais forcément mauvaises pour nous, parce que sinon c'est pas drôle... (d'ailleurs ceux qui ont noté la contradiction de ce genre de raisonnement ont droit à un cookie).
Offres d'emploi IT
Développeur WEB PHP F/H
VACALIANS GROUP - Languedoc Roussillon - SETE (34)
RESPONSABLE WEB ANALYTICS F/H
VACALIANS GROUP - Languedoc Roussillon - SETE (34)
Développeur Web FULL-STACK
VACALIANS GROUP - Languedoc Roussillon - SETE (34)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Accueil