Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine
Et sa colonisation de Mars comme un plan de secours

Le , par Michael Guilloux, Chroniqueur Actualités
Comme on peut le voir dans certains jeux vidéo, si l’on se projette dans quelques siècles à venir, on verra la civilisation humaine dominée par des extraterrestres. Mais pour Elon Musk, ces extraterrestres pourraient être le fruit de l’intelligence artificielle, si rien n’est fait dès maintenant pour contenir cette technologie. Le visionnaire et milliardaire de la Tech vient en effet, une nouvelle fois, de tirer la sonnette d’alarme sur l’intelligence artificielle (IA) et les risques qu’elle présente pour l’humanité.

En octobre 2014, Elon Musk avait déjà déclaré que le nucléaire serait moins dangereux que l’IA. Trois ans plus tard, le patron de SpaceX s’est encore plus ancré dans sa position, en affirmant que l’IA est un « risque fondamental pour la civilisation humaine ». Elon Musk s’est exprimé à l’occasion du National Governors Association Summer Meeting, une conférence des gouverneurs américains qui s’est tenue récemment. Son intervention a porté sur divers sujets notamment les voitures autonomes et l’IA.


À propos des voitures autonomes sur lesquelles portait une grande partie de son intervention, le patron de Tesla est convaincu que dans 20 ans, posséder une voiture qui n’est pas autonome sera comme posséder un cheval aujourd'hui. « Les gens qui auront des voitures non autonomes [seront] comme les gens qui ont des chevaux [aujourd’hui] », a-t-il dit. « Il serait tout simplement inhabituel d’utiliser [les voitures non autonomes] comme moyen de transport. » En ce qui concerne les dangers de cette technologie, Elon Musk pense que le plus grand risque serait un « piratage à l'échelle de la flotte » du logiciel qui les contrôle. Il est toutefois plus pessimiste quand il s’agit de l’IA, en faisant allusion à ces technologies autonomes dont l’intelligence pourrait ne pas être maitrisée par les humains.

Elon Musk a demandé au gouvernement de réglementer de manière proactive l'intelligence artificielle avant que les choses n'aillent trop loin. « En général, voici la façon dont les réglementations sont mises en place », explique-t-il. « Un certain nombre de mauvaises choses se produisent, il y a un tollé public et, après de nombreuses années, une agence de réglementation est mise en place pour réglementer cette industrie. Cela prend une éternité. Cela a été mauvais par le passé, mais pas quelque chose qui représentait un risque fondamental pour l'existence de la civilisation. L'IA est un risque fondamental pour l'existence de la civilisation humaine », dit-il.

Pour l’entrepreneur en série, cette approche réactive de s’attaquer aux problèmes ne devrait pas être adoptée dans le cas de l’IA. La société ne devrait pas attendre « jusqu'à ce que les gens voient des robots qui descendent dans la rue en tuant des gens », avant d’agir. Pour faire face aux problèmes de l’intelligence artificielle, il propose plutôt d’agir maintenir avant que ça soit trop tard. « L’IA est un cas rare où je pense qu'il faut être proactif dans la réglementation plutôt que réactif. Parce que je pense qu'au moment où nous serons réactifs dans la réglementation de l'IA, il sera trop tard. »

Comme solution, Elon Musk propose avant tout d’essayer d’apprendre autant que possible au sujet de l’intelligence artificielle. Il dit par ailleurs que son désir de coloniser la planète Mars est, en partie, un plan de secours au cas où l’IA parvient à prendre le dessus sur l’Homme sur Terre.

Ci-dessous, la vidéo sur le National Governors Association Summer Meeting. Allez à la 43e minute pour écouter Elon Musk.


Sources : Fortune, Inquisitr

Et vous ?

Que pensez-vous des déclarations d’Elon Musk ?
L’IA présente-t-elle autant de risques qu’il le pense ?
Si oui, la colonisation de la planète Mars est-elle un plan de secours viable ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de super_navide super_navide - Provisoirement toléré https://www.developpez.com
le 17/07/2017 à 12:52
Evidemment qu'Elon Musk pense ça des IAs, car elles remettront forcement en cause tous les pouvoirs de décisions.
Avec une IA suffisamment avancé il y aura plus de besoin de manager/directeur/politique enfin plus besoins de gens qui décident pour nous...
Je pense que ça sera pas pire .....
De toute façon contre l'IA ils pourra rien y faire vu qu'il n'a aucune connaissance réelle de comment elle fonctionneront.
Une IA (singularité ) avec l'évolution de la technologie , pourra facilement être mise au point par une petite structure hors de contrôle de ses gens là, donc je comprend pourquoi il balise leurs jour sont compté.

A votre avis pourquoi on nous bassine avec des films catastrophe sur les IA, pour qu'on soit formaté a " l'humain c mieux qu'une IA pour diriger , on peut avoir plus confiance en l' humain qu’envers l'IA. "
Avatar de laerne laerne - Membre éclairé https://www.developpez.com
le 17/07/2017 à 14:48
Citation Envoyé par super_navide Voir le message
Avec une IA suffisamment avancé il y aura plus de besoin de manager/directeur/politique enfin plus besoins de gens qui décident pour nous...
Je pense qu'on peut sans trop de risque dire que l'humanité est un problème NP. Donc une IA qui arrivent à prendre des décisions, bien que meilleure, le fera avec une méthode faillible, et elle est donc responsable des résultat. Sauf si un humain est au bout de la chaîne décisionnelle pour valider le tout. Je n'espérerais pas trop vite de voir les politiciens disparaître.
Avatar de MaximeCh MaximeCh - Membre actif https://www.developpez.com
le 17/07/2017 à 15:24
A titre personnel je considère Elon Musk et ses pairs comme un risque fondamental pour l'existence de la civilisation humaine.
Avatar de a028762 a028762 - Membre averti https://www.developpez.com
le 17/07/2017 à 15:27
Encore la tarte à la crème de la planète Mars comme réponse aux problèmes terrestres !
Cela fait combien de temps qu'on a touché la lune et qu'on n'y est pas retourné ? 1969 ?
Alors, la planète Mars, avec un voyage qui prendrait des mois, coûterait une fortune , dont on n'est pas sûr de revenir ?
Elon Musk contribue notablement aux voitures autonomes ... donc au déploiement de l'IA !
Quel animateur de buzz !
Avatar de TiranusKBX TiranusKBX - Expert confirmé https://www.developpez.com
le 17/07/2017 à 15:55
Pour envoyer plein de monde rapidement sur mars on sait faire mais c'est bien radioactif comme méthode(Projet Orion), le problème est: comment permettre aux migrants sur Mars une capacité de survie supérieure à quelques jours
Avatar de loukoum82 loukoum82 - Membre habitué https://www.developpez.com
le 17/07/2017 à 16:29
Elon Musk contribue notablement aux voitures autonomes ... donc au déploiement de l'IA !
Les voitures autonomes ne sont pas équipées d'une IA...
C'est juste un programme sophistiqué conçu pour remplir une tâche et résoudre un problème précis. On est loin d'une IA qui a passé le test de Turing...

Mais je suis d'accord qu'Elon Musk, si un jour IA il y a capable de nous exterminer, aura contribué à la répandre avec tous ses véhicules connectés.
Avatar de Orionos Orionos - Membre habitué https://www.developpez.com
le 17/07/2017 à 17:10
Je pense qu'il est important de souligner qu'il parle de risque, pas directement de danger.
Donc il ne considère pas forcement que c'est dangereux mais potentiellement dangereux.

Je pense quand même que c'est pas un risque fondamentale, du moins comparé aux autres risques actuels. Par exemple je pense que le nucléaire est plus dangereux que l'IA. Dans les deux cas c'est puissant, donc une défaillance / dérive est théoriquement possible... Savoir si l'un et plus risqué que l'autre c'est de la science au doigt mouillé je pense pas que ce soit un débat très intéressant
Avatar de TheLastShot TheLastShot - Membre averti https://www.developpez.com
le 17/07/2017 à 18:40
@loukoum82: Sauf que la définition de l'IA est bien plus complexe que "passer le test de turing"... Ce que tu considères aujourd'hui comme "un programme sophistiqué" n'est autre que l'IA d'hier. Plus les recherches en IA avance, moins ils y d'IA et plus il y a d'automatisation, non pas parce c'est "juste de l'automatisation" mais plus parce que dans la tête de ceux qui n'y connaissent rien (rien de péjoratif là-dedans, il est normal de ne pas être tous des spécialistes de tous les domaines) l'IA est quelque chose de complexe, une simulation d'une d'intelligence infiniment plus intelligente que nous, etc. et le faut de réussir à concevoir une IA (réseaux de neurone, agents, etc.) rends la chose moins impressionnante car on comprend son fonctionnement, et on la retire donc de la catégorie "IA".
D'autre part, limiter la définition de l'IA au "simple" test de Turing est très restrictif, car ça ne concerne que les échanges verbaux (imaginons un être humain incapable de communiquer verbalement (muet, sourd, incapable d'écrire, etc.) mais d'intelligence normal, il serait de fait incapable de passer le test de Turing, mais ça n'en fait pas moins un être intelligent.
La reconnaissance de notre environnement, la prise de décision, etc. font partie de notre intelligence ! Et c'est justement là-dessus que se basent les voitures automatiques.
De plus dire que ces programmes ne sont prévu que pour résoudre un "problème spécifique" fait croire que le problème est en soi très simple, ce qui élimine la réalité de la chose. Pour une conduite automatique, il est d'abord être capable de reconnaître son environnement (voitures alentours, signalisation, ...) donc à ce niveau on a déjà de la reconnaissance et de l'apprentissage. Il faut aussi prendre les bonnes décisions (je ralenti, je tourne, je fonce dans le faussé (oui parce que par défaut, le véhicule est prévu pour sacrifier le conducteur s'il faut choisir entre lui et un piéton)), donc en plus de l'apprentissage, il faut analyser la situation en temps réelle.

Alors oui, la voiture est peut-être pas capable de te tailler une bavette comme le ferait un taxi, mais dire qu'elle n'embarque pas d'IA c'est autre chose...

Sinon concernant l'article en lui-même c'est toujours la même chose. Dès qu'un mec a une minimum de notoriété il se croit (ou on le fait passer pour) un expert dans tous les domaines. Je rappel juste qu'à la base ce cher monsieur est ingénieur, certes, mais en physique, pas en informatique et encore moins dans une domaine aussi complexe que l'intelligence artificielle. Après il a peut-être étudié l'IA en autodidacte, ce n'est pas interdit, mais à moins de prouver qu'il a la moindre connaissance réelle dans ce domaine, il serait gentil de garder ses opinions dans le cadre de son "expertise". (c'est un peu comme si moi, pauvre petit ingé au IA je me permettait d'aller critiquer les travaux des neurologues alors que je n'y connais rien (sauf que ma renommée était proche de zéro, on m'enverrait juste bouler)).
De plus, de mon point de vue ce genre de discours me parait plus narcissique qu'autre chose. Comme si le fait d'alerter le peuple, nous pauvres ignorants, permettait à ce genre d'individus (même chose pour Stephen Hawking qui a plus ou moins la même position concernant sur l'IA (encore un physicien, à croire qu'on leur apprend ça pendant leurs études ?)) de se sentir supérieur car eux seuls sont capables de comprendre le réel danger que cache une IA supérieurement intelligente à l'homme et qui donc prendrait des décisions à notre place, que nous sommes incapables même d'imaginer ! Mais forcément mauvaises pour nous, parce que sinon c'est pas drôle... (d'ailleurs ceux qui ont noté la contradiction de ce genre de raisonnement ont droit à un cookie).
Avatar de Deltaplouf Deltaplouf - Futur Membre du Club https://www.developpez.com
le 23/07/2017 à 0:30
J'arrive un peu après la bataille dans cette discussion, mais je crois que ce qu'Elon Musk essaye de dire ici, ce n'est pas que l'IA va inévitablement aboutir à un Skynet exterminateur de la race humaine (cf. Terminator), mais que le potentiel est là ou qu'en tout cas, il y a suffisamment d'incertitude pour ne pas se contenter d'attendre de voir, car les progrès vont être exponentiels juste parce que la concurrence entre les développeurs de l'IA est telle qu'ils vont foncer sans regarder aux conséquences. Tous les secteurs "sensibles" (où la concurrence et la réduction des coûts pourraient se faire au dépends de la sécurité des personnes) se sont vus, au final, régulés par une autorité (transport aérien, transports terrestres, santé, etc.) et des normes. Mais tout cet arsenal s'est construit a posteriori, au fur et à mesure qu'on constatait les dérives et plutôt lentement.

Elon Musk pense qu'avec l'IA, l'accélération sera telle qu'il sera trop tard pour règlementer ce qui doit l'être et que les conséquences seront rapides et à tous les niveaux de la société, donc incontrôlables, impossibles à stabiliser si on n'anticipe pas. Il n'est pas contre l'IA, mais de ce qu'il en voit, ça peut aller très vite. On est juste à la bourre alors qu'on pourrait déjà encadrer le développement et l'usage.

@TheLastShot : pas besoin d'être un ingénieur en IA pour comprendre que le secteur des transports va rapidement perdre des centaines de milliers d'emplois au fur et à mesure que les véhicules autonomes arrivent. Pas besoin de faire du développement de réseau de neurones pour comprendre que l'IA va avoir des répercussions dans tous les secteurs ou presque, à différents degrés certes, mais tellement "partout à la fois" que ça peut créer de l'instabilité. Il dit qu'il a été "exposé à de l'IA dernier cri", c'est peut-être de l'esbroufe, mais il n'a pas besoin d'être informaticien pour que tout plein de start-up ou labos lui présentent leurs derniers progrès dans l'espoir de l'intéresser et d'attirer la force d'investissement dont il est capable. Donc à mon avis, il en sait déjà bien plus que nous sur ce que l'IA est capable de faire, même s'il n'est pas lui-même développeur d'IA.

Je me plante peut-être, mais la révolution internet a changé nos modes de vie en 15 ans, la téléphonie mobile en 10 et on a eu le temps de réguler /réglementer avec un peu de retard mais pas trop. Les applications de l'IA et l'augmentation de ses performances sont plutôt plus rapides et les changements potentiels sont carrément bien plus vastes. Et aucun politicien, aucune institution ne semblent prêts ni même outillés pour réguler.

Si l'IA permet des prises de décisions qui seront "bonnes" pour notre civilisation dans 99 % des cas, il faudrait déjà être prêts pour faire face aux conséquences des 1 % de mauvaises décisions pour nous. Et oui, ça inclus (il le dit lui-même) les grands décideurs qui risquent de perdre leur valeur. Mais ça inclus surtout tout le monde.
Avatar de Ryu2000 Ryu2000 - Membre expert https://www.developpez.com
le 25/07/2017 à 11:32
Clash entre Mark Zuckerberg et Elon Musk sur l'intelligence artificielle
Mark Zuckerberg : Le gars de Tesla est irresponsable de dire que l’intelligence artificielle est risquée.
Elon Musk : Le gars de Facebook est un peu limité... Sur ce sujet !
Je ne vois pas en quoi en quoi c'est irresponsable de dire que l’intelligence artificielle peut représenter un risque...
Il vaut mieux anticiper les problèmes, que de dire "tout ira bien, l'IA n'apportera forcément que du bon !".

On va laisser des systèmes critique se faire contrôler par des algorithmes, forcément que ça peut mal finir...
Offres d'emploi IT
Consultant en innovation digitale (h/f)
SOLUCOM - Ile de France - Paris La Défense
Développeur /euse web
L'agence Web - Ile de France - Levallois-Perret (92300)
Architecte solution h/f
Direction Service - Ile de France - Saint-Cloud (92210)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Accueil