L'apocalypse s'accomplira-t-elle avec la création de l'IA ?
L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
Le 2014-10-29 02:17:05, par Cedric Chevalier, Expert éminent sénior
Les progrès de la science ont contribué à améliorer grandement les conditions de vie. Dans les disciplines scientifiques comme la physique, la biologie ou encore en génétique, pour ne citer que celles-là, des efforts appréciables ont été faits.
L’informatique n’est pas en reste. Elle connaît elle aussi sa part de progrès, et d’autres tendances se profilent à l’horizon, comme la création de la première intelligence artificielle par l’homme.
Le sujet en lui-même n’est pas nouveau. Mais, avec l’avancée actuelle des choses en informatique comme l’apprentissage machine, le « Big Data » et bien d’autres, il est logique de penser qu’on est plus proche de créer une IA (Intelligence artificielle) à notre époque qu’en 1950 où Alan Turing a publié son article « Computing Machinery and Intelligence ».
Alors qu’on imagine que la création de l’IA pourrait être bénéfique pour l’homme sur plusieurs points, l’entrepreneur multimilliardaire sud-africain PDG de Telsa et fondateur de SpaceX, Elon Musk, pense le contraire.
Pour lui, l’IA serait forcément maléfique. Musk compare un futur avènement d’une IA à une invocation d’êtres surnaturels malfaisants aux pouvoirs incommensurables, communément appelés démons.
Dans les religions et les mythes, les démons sont pour la plupart des êtres surnaturels indépendants, qui vont jusqu’à asservir, voire même éliminer, celui qui les a invoqués.
L’entrepreneur va même jusqu’à affirmer que le nucléaire serait moins dangereux que l’IA.
Des peurs justifiées ? On ne peut en être réellement sûr. Les progrès scientifiques ont dû faire face à de nombreuses réticences dans l’histoire, peut-être qu’il en est de même avec l’IA.
Cette idéologie d’une IA foncièrement malveillante n’est pas seulement soutenue par Musk. De nombreuses productions cinématographiques à l’instar de Matrix, i-Robot ou encore Terminator partagent le même point de vue.
Par ailleurs, il faudrait préciser qu’à ce jour, il n’existe pas encore d’IA dans le sens du milliardaire. En effet, il faudrait être capable de créer une machine assez consciente pour pouvoir distinguer ce qui est bien de ce qui est mal : ce qui n’est pas pour demain.
Source : Twitter Elon Musk
Et vous ?
Faut-il avoir peur de l'IA ?
L’informatique n’est pas en reste. Elle connaît elle aussi sa part de progrès, et d’autres tendances se profilent à l’horizon, comme la création de la première intelligence artificielle par l’homme.
Le sujet en lui-même n’est pas nouveau. Mais, avec l’avancée actuelle des choses en informatique comme l’apprentissage machine, le « Big Data » et bien d’autres, il est logique de penser qu’on est plus proche de créer une IA (Intelligence artificielle) à notre époque qu’en 1950 où Alan Turing a publié son article « Computing Machinery and Intelligence ».
Alors qu’on imagine que la création de l’IA pourrait être bénéfique pour l’homme sur plusieurs points, l’entrepreneur multimilliardaire sud-africain PDG de Telsa et fondateur de SpaceX, Elon Musk, pense le contraire.
Pour lui, l’IA serait forcément maléfique. Musk compare un futur avènement d’une IA à une invocation d’êtres surnaturels malfaisants aux pouvoirs incommensurables, communément appelés démons.
Dans les religions et les mythes, les démons sont pour la plupart des êtres surnaturels indépendants, qui vont jusqu’à asservir, voire même éliminer, celui qui les a invoqués.
L’entrepreneur va même jusqu’à affirmer que le nucléaire serait moins dangereux que l’IA.
Des peurs justifiées ? On ne peut en être réellement sûr. Les progrès scientifiques ont dû faire face à de nombreuses réticences dans l’histoire, peut-être qu’il en est de même avec l’IA.
Cette idéologie d’une IA foncièrement malveillante n’est pas seulement soutenue par Musk. De nombreuses productions cinématographiques à l’instar de Matrix, i-Robot ou encore Terminator partagent le même point de vue.
Par ailleurs, il faudrait préciser qu’à ce jour, il n’existe pas encore d’IA dans le sens du milliardaire. En effet, il faudrait être capable de créer une machine assez consciente pour pouvoir distinguer ce qui est bien de ce qui est mal : ce qui n’est pas pour demain.
Source : Twitter Elon Musk
Et vous ?
-
Paul TOTHExpert éminent séniorheureusement que personne ne lui a dit que Linux était bourré de daemonle 29/10/2014 à 8:42
-
rawsrcExpert éminent séniorJe ne pense pas du tout que le cerveau humain fonctionne que sur des 0 et/ou des 1.
Toutes les études montrent qu'il y a bien un potentiel électrique à l'oeuvre dans le cerveau mais celui ci ne fonctionne pas de manière binaire. Le potentiel électrique est variable dans son intensité (et sa fréquence) et du coup le 1 en informatique peut correspondre à mille variantes dans le contexte cérébral...
C'est autrement plus compliqué qu'un banal système électrique aussi complexe soit-il comme un processeur actuellement
Après, n'étant pas du tout versé dans ce domaine je serai incapable d'en dire plus.le 29/10/2014 à 11:31 -
BenoitMExpert confirméFaudrait plutot se poser la question dans quoi l'Homme (entk certains hommes) n'a pas vu l'apocalypse.
Les éclipse, la médecine, les vaccins, les avions, les fusées, le nucléaire, l'an 2000, l'informatique, l'IA, le droit de vote, l'émancipation de la femme, la contraception, le mariage pour tousle 29/10/2014 à 8:20 -
Halarp27Nouveau membre du ClubEn effet, il faudrait être capable de créer une machine assez consciente pour pouvoir distinguer ce qui est bien de ce qui est mal : ce qui n’est pas pour demain.le 29/10/2014 à 9:42
-
ZeflingExpert confirméL'article a vraiment été fait à partir d'un tweet ?le 29/10/2014 à 10:29
-
Matthieu VergneExpert éminentPeut-on dire que la peste, le cancer , les cyclones, les tremblements de terre, la montée des eaux ou le réchauffement climatique sont intelligents? Je pense que beaucoup sont convaincus que non, tout au plus les premiers montrent une très bonne adaptation pour obtenir ce qu'il leur faut, mais certainement pas une intelligence notable. Pourtant, je suis convaincu que tout le monde acceptera qu'on dise que ce sont des menaces réelles pour l'humanité, au sens des menaces qui peuvent s'appliquer sur un groupe massif d'humains. Probablement davantage pour ceux qui ne sont pas localisés ou se transmettent.
(Le paragraphe suivant est barré car initialement l'article mentionnait "pseudo-science", d'où ma réaction. J'imagine qu'il a été rapidement édité mais je ne l'ai pas remarqué.)
Là je ne vois pas le rapport. Une pseudo-science est ce qui se dit être du domaine de la science sans en avoir les attributs (réfutabilité, reproducibilité, etc.). En quoi "ne pas avoir les attributs d'une science" (à supposer que ce soit vrai, ce dont j'ai des doutes) empêcherait une IA de surpasser l'Homme ? Tout au plus, ça permet de douter de la chose, certainement pas de poser des garanties. Et pour ainsi dire, l'argumentaire développé par ce philosophe semble pour moi entrer dans la même catégorie de pseudo-science qu'il dénigre (cf. la suite).
Là par contre je suis d'accord, notamment avec son exemple d'IBM qu'on a déjà mentionné dans les discussions précédentes. Mais ça s'arrête là, vu que l'argumentaire tend à montrer un manque de connaissance sur les algorithmes avancés tels que les algorithmes évolutionnaires et autres techniques d'optimisation.
S'il est vrai que les machines ne font qu'obéir à des algorithmes, rien ne montre que l'Homme fasse mieux à ma connaissance. Nombre d'actions et réactions de l'Homme sont aujourd'hui associées à des zones spécifiques du cerveau et des processus purement biologiques. Un tel argument ne trouverait donc de la valeur que dans le cas où on prendrait le parti d'une "âme" ou d'un "esprit", séparé du corps et de ses processus, et ayant un contrôle supérieur sur ce dernier. Mais là on entre bien plus certainement dans la pseudo-science.
Ensuite, quand il dit que ce sont les concepteurs qui décident de ce que la machine doit faire, il semble ignorer que ce contrôle se réduit significativement selon les techniques employées. Par exemple, une technique d'apprentissage permet d'obtenir des résultats escomptés sur un certain ensemble de cas, mais non seulement on ne sait pas exactement comment ces décisions sont prises, mais en plus on lui fait confiance pour les cas restants, en supposant que "ça marche bien". On est donc loin d'un contrôle total.
Là, on nage dans le brouillard : si de simples cellules sont considérées comme intelligentes, alors comment définit-il l'intelligence ? Si je me fie à ce que j'ai lu sur le sujet, l'intelligence est lié aux processus cognitifs et moteurs. Une simple cellule ne saurait entrer dans ce cadre par son absence de processus cognitif. Tout au plus elle participe au processus. Il me semblait que ce philosophe mélangait intelligence et conscience, mais c'est visiblement plus vague encore s'il rapporte l'intelligence à une seule cellule. Et si on lit la source, et qu'on suit le lien qu'il donne pour justifier que les cellules sont plus intelligentes, on tombe sur un de ses propres articles où non seulement il identifie la confusion :
And so we confront a lovely irony. Plants are intelligent, it is claimed, because they are, in effect, robots! I began by criticizing claims that Watson is intelligent by comparing Watson to a mere plant. But defenders of plant intelligence argue that plants are intelligent, that they have minds because they are, really, computational systems; they are, in effect, like Watson!
But this seems misguided. [...]If we want to understand plants, and their minds, we need to start not with computation, but with the fact that they are alive.
Opinion que je ne saurai suivre. Mais cela ne reste que mon humble avis, bien entendu {^_^}.le 26/11/2014 à 15:12 -
Jon ShannowMembre extrêmement actifEt si je te dis que le système nerveux humain (cerveau compris) ne fonctionne qu'avec des 0 et des 1 ? Ça change tes perspectives, non ?le 29/10/2014 à 10:57
-
zeyr2mejetremMembre chevronnéPour moi, une erreur à ne pas faire concernant les dangers de l'intelligence artificielle est de penser qu'il faudrait arriver à un niveau d'intelligence "supérieure" à l'intelligence humaine.
Un système d'intelligence rudimentaire étant capable de se nourrir, se reproduire massivement et se défendre basiquement en s'adaptant (ex: un virus, une sauterelle ...) suffirait à représenter un danger.
Pour les fans de Stargate SG1, je pense aux réplicateurs ...
Un réplicateur n'atteint pas le niveau d'intelligence de terminator mais une nuée représente un problème quasi-insurmontable.
Enfin, est ce tout simplement une bonne chose de "remplacer" les êtres humains ?
Pour les amateurs de SF, je pense que les règles du Jihad Butlérien devraient s'appliquer (PS: Message aux intégristes de tous bords: renseignez vous sur ce que signifie le terme jihad butlérien avant de déverser vos propos anti-religieux ou prosélytiques)le 29/10/2014 à 11:57 -
JipétéExpert éminent séniorLes machines ne sont capables de rien du tout à part exécuter stupidement et mécaniquement les instructions qu'un humain a codées et leur a implantées. Point barre.
("mécaniquement" dans le sens enchaînements logiques, comme un engrenage mécanique : if condition then action1 else action2 c'est de la mécanique)le 30/10/2014 à 10:17 -
youtpout978Expert confirméLe plus gros problème des OGM c'est que les industriels en ont profité pour faire payer des graines à chaque récolte et de foutre des procès aux agriculteurs des champs voisins si jamais leur ogm venait à polliniser leur champs et avoir à leur tour des plantations à base d'OGM.
L'OGM n'est pas forcément condamnable en soit (chacun à son propre avis la dessus) mais c'est l'utilisation qui en est faite qui est discutable et le faite que même si un agriculteur n'en veut pas il se retrouvera un jour ou l'autre avec des plantations polliniser par des OGM.le 30/10/2014 à 15:08