Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'apocalypse s'accomplira-t-elle avec la création de l'IA ?
L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité

Le , par Cedric Chevalier

61PARTAGES

7  6 
Les progrès de la science ont contribué à améliorer grandement les conditions de vie. Dans les disciplines scientifiques comme la physique, la biologie ou encore en génétique, pour ne citer que celles-là, des efforts appréciables ont été faits.

L’informatique n’est pas en reste. Elle connaît elle aussi sa part de progrès, et d’autres tendances se profilent à l’horizon, comme la création de la première intelligence artificielle par l’homme.

Le sujet en lui-même n’est pas nouveau. Mais, avec l’avancée actuelle des choses en informatique comme l’apprentissage machine, le « Big Data » et bien d’autres, il est logique de penser qu’on est plus proche de créer une IA (Intelligence artificielle) à notre époque qu’en 1950 où Alan Turing a publié son article « Computing Machinery and Intelligence ».

Alors qu’on imagine que la création de l’IA pourrait être bénéfique pour l’homme sur plusieurs points, l’entrepreneur multimilliardaire sud-africain PDG de Telsa et fondateur de SpaceX, Elon Musk, pense le contraire.

Pour lui, l’IA serait forcément maléfique. Musk compare un futur avènement d’une IA à une invocation d’êtres surnaturels malfaisants aux pouvoirs incommensurables, communément appelés démons.

Dans les religions et les mythes, les démons sont pour la plupart des êtres surnaturels indépendants, qui vont jusqu’à asservir, voire même éliminer, celui qui les a invoqués.

L’entrepreneur va même jusqu’à affirmer que le nucléaire serait moins dangereux que l’IA.

Des peurs justifiées ? On ne peut en être réellement sûr. Les progrès scientifiques ont dû faire face à de nombreuses réticences dans l’histoire, peut-être qu’il en est de même avec l’IA.

Cette idéologie d’une IA foncièrement malveillante n’est pas seulement soutenue par Musk. De nombreuses productions cinématographiques à l’instar de Matrix, i-Robot ou encore Terminator partagent le même point de vue.

Par ailleurs, il faudrait préciser qu’à ce jour, il n’existe pas encore d’IA dans le sens du milliardaire. En effet, il faudrait être capable de créer une machine assez consciente pour pouvoir distinguer ce qui est bien de ce qui est mal : ce qui n’est pas pour demain.

Source : Twitter Elon Musk

Et vous ?

Faut-il avoir peur de l'IA ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Paul TOTH
Expert éminent sénior https://www.developpez.com
Le 29/10/2014 à 8:42
heureusement que personne ne lui a dit que Linux était bourré de daemon
19  2 
Avatar de rawsrc
Modérateur https://www.developpez.com
Le 29/10/2014 à 11:31
Citation Envoyé par Jon Shannow Voir le message
Et si je te dis que le système nerveux humain (cerveau compris) ne fonctionne qu'avec des 0 et des 1 ? Ça change tes perspectives, non ?
Je ne pense pas du tout que le cerveau humain fonctionne que sur des 0 et/ou des 1.
Toutes les études montrent qu'il y a bien un potentiel électrique à l'oeuvre dans le cerveau mais celui ci ne fonctionne pas de manière binaire. Le potentiel électrique est variable dans son intensité (et sa fréquence) et du coup le 1 en informatique peut correspondre à mille variantes dans le contexte cérébral...

C'est autrement plus compliqué qu'un banal système électrique aussi complexe soit-il comme un processeur actuellement

Après, n'étant pas du tout versé dans ce domaine je serai incapable d'en dire plus.
14  1 
Avatar de BenoitM
Expert confirmé https://www.developpez.com
Le 29/10/2014 à 8:20
Faudrait plutot se poser la question dans quoi l'Homme (entk certains hommes) n'a pas vu l'apocalypse.
Les éclipse, la médecine, les vaccins, les avions, les fusées, le nucléaire, l'an 2000, l'informatique, l'IA, le droit de vote, l'émancipation de la femme, la contraception, le mariage pour tous
15  5 
Avatar de Halarp27
Nouveau membre du Club https://www.developpez.com
Le 29/10/2014 à 9:42
En effet, il faudrait être capable de créer une machine assez consciente pour pouvoir distinguer ce qui est bien de ce qui est mal : ce qui n’est pas pour demain.
En sachant que ce qui est bien pour elle ne serais pas forcément bien pour les hommes.
11  2 
Avatar de Zefling
Membre expert https://www.developpez.com
Le 29/10/2014 à 10:29
L'article a vraiment été fait à partir d'un tweet ?
11  3 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 26/11/2014 à 15:12
Citation Envoyé par Michael Guilloux Voir le message
Selon Alva Noë, philosophe et professeur à l'Université de Berkeley, pour que l’IA soit une menace réelle pour la race humaine, il faudrait d’abord que l’intelligence artificielle surpasse celle de l’Homme.
Peut-on dire que la peste, le cancer , les cyclones, les tremblements de terre, la montée des eaux ou le réchauffement climatique sont intelligents? Je pense que beaucoup sont convaincus que non, tout au plus les premiers montrent une très bonne adaptation pour obtenir ce qu'il leur faut, mais certainement pas une intelligence notable. Pourtant, je suis convaincu que tout le monde acceptera qu'on dise que ce sont des menaces réelles pour l'humanité, au sens des menaces qui peuvent s'appliquer sur un groupe massif d'humains. Probablement davantage pour ceux qui ne sont pas localisés ou se transmettent.

(Le paragraphe suivant est barré car initialement l'article mentionnait "pseudo-science", d'où ma réaction. J'imagine qu'il a été rapidement édité mais je ne l'ai pas remarqué.)
Citation Envoyé par Michael Guilloux Voir le message
Ce qui n’est pas le cas, puisqu’il s’agit d’une pseudo-intelligence.
Là je ne vois pas le rapport. Une pseudo-science est ce qui se dit être du domaine de la science sans en avoir les attributs (réfutabilité, reproducibilité, etc.). En quoi "ne pas avoir les attributs d'une science" (à supposer que ce soit vrai, ce dont j'ai des doutes) empêcherait une IA de surpasser l'Homme ? Tout au plus, ça permet de douter de la chose, certainement pas de poser des garanties. Et pour ainsi dire, l'argumentaire développé par ce philosophe semble pour moi entrer dans la même catégorie de pseudo-science qu'il dénigre (cf. la suite).


Citation Envoyé par Michael Guilloux Voir le message
L’une des raisons pour lesquelles je ne suis pas inquiet à propos de la possibilité que nous allons bientôt créer des machines qui soient plus intelligentes que nous, est que nous n’avons pas réussi à faire jusqu'à maintenant des machines qui soient vraiment intelligentes.
Là par contre je suis d'accord, notamment avec son exemple d'IBM qu'on a déjà mentionné dans les discussions précédentes. Mais ça s'arrête là, vu que l'argumentaire tend à montrer un manque de connaissance sur les algorithmes avancés tels que les algorithmes évolutionnaires et autres techniques d'optimisation.

Citation Envoyé par Michael Guilloux Voir le message
Les machines intelligentes ne font qu’obéir à des algorithmes qui leur ont été dictés par leurs concepteurs, elles n’ont pas d’intelligence autonome. Ces machines sont comparées à des horloges qui peuvent donner l’heure, mais qui ne savent pas l’heure qu’il est. En d’autres termes, leur intelligence est programmée par l’Homme, c’est ce dernier qui décide de ce qu’elles doivent faire, et non elles-mêmes.
S'il est vrai que les machines ne font qu'obéir à des algorithmes, rien ne montre que l'Homme fasse mieux à ma connaissance. Nombre d'actions et réactions de l'Homme sont aujourd'hui associées à des zones spécifiques du cerveau et des processus purement biologiques. Un tel argument ne trouverait donc de la valeur que dans le cas où on prendrait le parti d'une "âme" ou d'un "esprit", séparé du corps et de ses processus, et ayant un contrôle supérieur sur ce dernier. Mais là on entre bien plus certainement dans la pseudo-science.

Ensuite, quand il dit que ce sont les concepteurs qui décident de ce que la machine doit faire, il semble ignorer que ce contrôle se réduit significativement selon les techniques employées. Par exemple, une technique d'apprentissage permet d'obtenir des résultats escomptés sur un certain ensemble de cas, mais non seulement on ne sait pas exactement comment ces décisions sont prises, mais en plus on lui fait confiance pour les cas restants, en supposant que "ça marche bien". On est donc loin d'un contrôle total.

Citation Envoyé par Michael Guilloux Voir le message
En plus, si l’on veut se référer aux scientifiques qui comparent l’Homme à une machine, on pourrait dire que la véritable machine intelligente, c’est l’humain. Les plus petites cellules vivant en lui sont dotées d’énormes capacités qu’on ne pourrait pas retrouver dans les programmes d’intelligence artificielle : « elles sont dotées d’une intelligence, une autonomie, une originalité qui dépassent de loin même les ordinateurs les plus puissants. »
Là, on nage dans le brouillard : si de simples cellules sont considérées comme intelligentes, alors comment définit-il l'intelligence ? Si je me fie à ce que j'ai lu sur le sujet, l'intelligence est lié aux processus cognitifs et moteurs. Une simple cellule ne saurait entrer dans ce cadre par son absence de processus cognitif. Tout au plus elle participe au processus. Il me semblait que ce philosophe mélangait intelligence et conscience, mais c'est visiblement plus vague encore s'il rapporte l'intelligence à une seule cellule. Et si on lit la source, et qu'on suit le lien qu'il donne pour justifier que les cellules sont plus intelligentes, on tombe sur un de ses propres articles où non seulement il identifie la confusion :
And so we confront a lovely irony. Plants are intelligent, it is claimed, because they are, in effect, robots! I began by criticizing claims that Watson is intelligent by comparing Watson to a mere plant. But defenders of plant intelligence argue that plants are intelligent, that they have minds because they are, really, computational systems; they are, in effect, like Watson!
Mais en plus il se contente de la résoudre en prenant simplement une position qui l'arrange dans son raisonnement :
But this seems misguided. [...]If we want to understand plants, and their minds, we need to start not with computation, but with the fact that they are alive.
À partir de là, son raisonnement coule de source : ce n'est pas une raison technique qui fait qu'on n'arrive pas à faire quelque chose d'intelligent, mais c'est parce que ce n'est pas Mère Nature qui l'a fait, donc ça ne peut pas être intelligent, point barre. Parler d'intelligence artificielle, sur ce point de vue, n'a donc juste pas de sens : dès lors que c'est artificiel, ça ne peut pas être intelligent. Et dès lors ce commentaire prend tout son sens :
Citation Envoyé par Michael Guilloux Voir le message
L'intelligence artificielle n’est pas l'intelligence synthétique : C’est une pseudo- intelligence.
Opinion que je ne saurai suivre. Mais cela ne reste que mon humble avis, bien entendu {^_^}.
8  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 29/10/2014 à 10:57
Citation Envoyé par bruneltouopi Voir le message
Je ne pense pas que cela puisses arriver un jour tant que la MACHINE est un succession de 0,1 alors l'intelligence ne peut pas se faire car cette machine ne pourra réagir que d'après un ensemble de séquences de Données collectées sur des comportements et l'analyse recus.
Donc même en supposant qu'un enfant apprend en grandissant et prenant l'exemple il demeure la seule chose que le machine n'aura jamais:LA CONSCIENCE.
Donc on est encore à des milliers d'années à part si l'homme découvre une nouvelle intelligence.L'IA ce n'est pas possible.
Et si je te dis que le système nerveux humain (cerveau compris) ne fonctionne qu'avec des 0 et des 1 ? Ça change tes perspectives, non ?
13  7 
Avatar de zeyr2mejetrem
Membre chevronné https://www.developpez.com
Le 29/10/2014 à 11:57
Pour moi, une erreur à ne pas faire concernant les dangers de l'intelligence artificielle est de penser qu'il faudrait arriver à un niveau d'intelligence "supérieure" à l'intelligence humaine.

Un système d'intelligence rudimentaire étant capable de se nourrir, se reproduire massivement et se défendre basiquement en s'adaptant (ex: un virus, une sauterelle ...) suffirait à représenter un danger.

Pour les fans de Stargate SG1, je pense aux réplicateurs ...
Un réplicateur n'atteint pas le niveau d'intelligence de terminator mais une nuée représente un problème quasi-insurmontable.

Enfin, est ce tout simplement une bonne chose de "remplacer" les êtres humains ?

Pour les amateurs de SF, je pense que les règles du Jihad Butlérien devraient s'appliquer (PS: Message aux intégristes de tous bords: renseignez vous sur ce que signifie le terme jihad butlérien avant de déverser vos propos anti-religieux ou prosélytiques)
7  2 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 30/10/2014 à 10:17
Citation Envoyé par sebbod Voir le message
Les machines sont déjà capables de réagir et d'apprendre, voir article Science et vie du mois d'octobre
Les machines ne sont capables de rien du tout à part exécuter stupidement et mécaniquement les instructions qu'un humain a codées et leur a implantées. Point barre.

("mécaniquement" dans le sens enchaînements logiques, comme un engrenage mécanique : if condition then action1 else action2 c'est de la mécanique)
9  4 
Avatar de youtpout978
Membre expert https://www.developpez.com
Le 30/10/2014 à 15:08
Citation Envoyé par DonQuiche Voir le message
Et les OGM ? Ils ont été interdits dès le début et pourtant on attend toujours la catastrophe promise alors même que des centaines de millions de personnes dans le monde en consomment quotidiennement depuis plus de dix ans.

Oui, je sais, moinssez.
Le plus gros problème des OGM c'est que les industriels en ont profité pour faire payer des graines à chaque récolte et de foutre des procès aux agriculteurs des champs voisins si jamais leur ogm venait à polliniser leur champs et avoir à leur tour des plantations à base d'OGM.
L'OGM n'est pas forcément condamnable en soit (chacun à son propre avis la dessus) mais c'est l'utilisation qui en est faite qui est discutable et le faite que même si un agriculteur n'en veut pas il se retrouvera un jour ou l'autre avec des plantations polliniser par des OGM.
7  2