Andrew NG, l'un des ténors de l'IA, considère le débat sur ses éventuelles dérives comme une perte de temps,
Partagez-vous son point de vue ?

Le , par Olivier Famien, Chroniqueur Actualités
Alors que les discussions font rage entre les défenseurs et les détracteurs de l’intelligence artificielle, Andrew NG, directeur scientifique chez Baidu et concepteur du système d’apprentissage automatique de Google, vient de relancer à nouveau le débat sur ce sujet en affirmant il y a quelques jours au GTG 2015, « qu’il y a beaucoup d’exagérations sur le fait que l’intelligence artificielle créera des robots malfaisants dotes d’une super intelligence ». De même, il considère qu’il pourrait avoir une race de robots tueurs dans un avenir lointain, mais il ne travaille pas aujourd’hui à empêcher la conversion au mal de ces machines intelligentes, pour la même raison qu’il ne s’inquiète pas du problème de surpopulation de la planète Mars.

En effectuant de telles déclarations, NG se positionne ouvertement dans le cas du camp de ceux qui sont favorables au développement de l’intelligence artificielle sans restrictions aucunes des risques découlant de ce projet. L’idéal serait donc de travailler déjà à mettre le projet sur pied. Leurs conséquences néfastes seront traitées en son temps. À la limite, le directeur scientifique de Baidu considère le débat comme une perte de temps. Cela se comprend clairement en suivant son assertion : « Au lieu de se laisser distraire par des robots tueurs ayant basculé du mauvais côté, le défi de la main d’œuvre causé par ces machines est une conversation que le monde universitaire, l’industrie et le gouvernement devraient accepter ».

À l’opposé de ce courant de pensée, nous avons plusieurs grands noms qui sont plutôt prudents et même inquiets et souhaitent également que nous partagions les mêmes sentiments en la matière. Bill Gates par exemple affirmait en ce début d’année que « je suis du côté de ceux qui se sentent préoccupés au sujet de l’intelligence artificielle… Dans quelques décennies, les avancées dans le domaine de l’intelligence artificielle seront telles que cela deviendra un problème ». Avant lui, nous avons eu Elon Musk, fondateur de PayPal, qui recommandait en aout 2014 que nous soyons « super prudents avec l’intelligence artificielle ». Pour ce dernier, « nous invoquons le diable » avec l’intelligence artificielle. Il va même plus loin en considérant que les conséquences pourraient être encore plus dangereuses que la bombe nucléaire.

Devrait-on attendre de voir les conséquences pour se pencher véritablement sur ce sujet ? Le sujet en vaut-il la peine ? Le débat est à nouveau lancé et chaque partie affute ses arguments en faveur ou en défaveur.

Source : Blog Nvidia

Et vous ?

Que pensez-vous de l’opinion de Ng ? Êtes-vous d’accord avec lui ?
Êtes-vous pour ou contre une limitation de l’intelligence artificielle ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de MABROUKI MABROUKI - Membre expert https://www.developpez.com
le 20/03/2015 à 17:07
Bonjour

Ce debat comme tous les debats sur les avancees du progres scientifiques ,est un debat que je qualifierais de debat sur la boite de Pandore d'ou sont sortis tous les maux de la terre...

Les travaux sur l'intelligence artificielle ne font qu'ameliorer nos connaissances sur nos capacites(mode de raisonnement,diversites des modeles de representation de la "realite") et doivent etre poussees...C'est dans ce sens que l'auteur à raison...Des travaux de la science ,il en sort toujours des choses utiles à l'humanite et aussi nuisibles bien entendu ,ces 2 aspects etant imputables beaucoup plus à nos comportements qu'à la science...
Pretendre qu'une technique ou une science est nuisible en soi ,est un contre-sens ...!!!
Avatar de yahiko yahiko - Rédacteur/Modérateur https://www.developpez.com
le 23/03/2015 à 11:13
Je pense que le gars veut dire tout simplement qu'en l'état actuel de l'IA encore loin de qu'on pourrait en espérer (Skynet n'est pas pour demain), les débats sur les dangers de l'IA fantasment sur quelque chose d'encore tout à fait hypothétique.

Autrement dit selui lui ces débats c'est un peu de la <bip> intellectuelle.

Il n'a pas tort...
Avatar de Spiwit Spiwit - Candidat au Club https://www.developpez.com
le 23/03/2015 à 11:33
Bonjour,

Sans aller jusqu'aux robots tueurs, on ne sait pas comment se comportera une réelle IA. Et par conséquent, même si on en est encore loin, il paraît logique de réfléchir dès maintenant à des moyens contrôles.

Le "on fait et on verra ensuite", c'est un peu léger tout de même.
Avatar de GPPro GPPro - Membre éprouvé https://www.developpez.com
le 23/03/2015 à 12:08
Citation Envoyé par yahiko  Voir le message
Je pense que le gars veut dire tout simplement qu'en l'état actuel de l'IA encore loin de qu'on pourrait en espérer (Skynet n'est pas pour demain), les débats sur les dangers de l'IA fantasment sur quelque chose d'encore tout à fait hypothétique.

Autrement dit selui lui ces débats c'est un peu de la <bip> intellectuelle.

Il n'a pas tort...

Il a même complètement raison ! Mais bons, les fantasmes, de nos jours, c'est ce qui préoccupent le plus les sites de news et autres "médias"...
Avatar de ParseCoder ParseCoder - Membre habitué https://www.developpez.com
le 23/03/2015 à 12:58
Au lieu de jouer à se faire peur avec l'IA alors qu'on ne sait même pas si c'est faisable ni en théorie ni en pratique, on ferait mieux de s'inquiéter de certaines menaces bien plus réelles.
Lorsque vous mettez une arme dans les "mains" d'un robot, nul besoin qu'il soit intelligent pour qu'il soit dangereux! Des prototypes de robots militaires de ce genre existent pourtant déjà. Que va t il se passer si on considère un jour qu'ils sont au point et "bon pour le service" et qu'on les produira en masse?

Avant de s'inquiéter qu'une hypothétique IA puisse un jour avoir l'idée de se débarrasser de l'humanité, inquiétons nous plutôt par exemple de ces robots militaires ou même encore des fous furieux qui appellent de leur voeux une guerre nucléaire contre la Russie avec le risque qu'il n'y ai aucun survivant.
Avatar de NSKis NSKis - En attente de confirmation mail https://www.developpez.com
le 23/03/2015 à 13:54
Citation Envoyé par Spiwit  Voir le message
Bonjour,

Sans aller jusqu'aux robots tueurs, on ne sait pas comment se comportera une réelle IA. Et par conséquent, même si on en est encore loin, il paraît logique de réfléchir dès maintenant à des moyens contrôles.

Le "on fait et on verra ensuite", c'est un peu léger tout de même.


Pour info, les "robots tueurs" existent déjà... Ils ne ressemblent pas à Schwarzi sur une Harley Davidson mais sont pleinement opérationnels. Exemple: Postes de tir automatiques installés sur certaines frontières: L'appareil détecte une présence humaine et tire... Que dire de l'algorithme qui décide d'ouvrir le feu? AI ou pas?
Avatar de yahiko yahiko - Rédacteur/Modérateur https://www.developpez.com
le 23/03/2015 à 14:05
J'imagine que tu fais allusion au projet de robot Samsung pour surveiller la DMZ

J'ai retrouvé le lien de la vidéo digne d'une séquence de Transformers ou Robocop ^^ :

Avec la réplique (bientôt) culte :
What is that monster...

Avatar de Matthieu Vergne Matthieu Vergne - Expert confirmé https://www.developpez.com
le 23/03/2015 à 15:22
Contrairement à Andrew NG, je ne penses pas que ce débat soit une perte de temps. Tout comme il n'y a pas de question bête (à la rigueur des réponses bêtes).

En revanche, je suis d'accord que dire que ça va être le paradis ou la fin du monde ne rime à rien. On n'est déjà pas capable de se mettre d'accord sur une définition pour l'intelligence, alors parler d'IA dans ce flou conceptuel n'apporte pas grand chose.

Citation Envoyé par Spiwit  Voir le message
Sans aller jusqu'aux robots tueurs, on ne sait pas comment se comportera une réelle IA. Et par conséquent, même si on en est encore loin, il paraît logique de réfléchir dès maintenant à des moyens contrôles.

Le "on fait et on verra ensuite", c'est un peu léger tout de même.

Si, on sait, vu que c'est nous qui les faisons. En revanche, on sait aussi que certaines techniques se basent sur de la statistique (e.g. réseaux de neurones), donc si elles donnent tels résultats, on ne sait pas pourquoi si ce n'est "parce que c'est ce qui semble être le cas selon les données en entrée". Mais le traitement de ces données c'est nous qui l'avons mis en place exprès pour faire ce qu'on veut, donc on sait. Les moyens de contrôles, on les design en même temps que nos IA, parce que si on n'arrive pas à en obtenir ce qu'on veut, c'est pas vendable.

C'est bien avec des raisonnements du style "on ne sait pas comment se comportera une réelle IA = faut savoir comment les controler" qu'on arrive à des réflexions du style "on ne sait pas comment se comportera un groupe d'humains = faut savoir comment les controler". Une IA n'est pas plus intrinsèquement mauvaise qu'un humain qui vient de naître. C'est ce qu'on lui apprend à faire, qui décide s'il fera quelque chose de bien ou pas, et l'IA c'est pareil.
Avatar de MikeRowSoft MikeRowSoft - Provisoirement toléré https://www.developpez.com
le 23/03/2015 à 15:42
C'est sûr qu'une intelligence artificielle qui évoluerais dans un univers proche du réel en 3 dimensions en ayant observer et appris des comportements scientifiques et aussi de ses semblables préprogrammés, et qui de plus aurait obtenu la faculté d'un semblant de volonté aura fait des heureux juste avant d'arriver à une interaction plus forte avec les vivants, surtout quand il s'agit de sentiments.
Avatar de GPPro GPPro - Membre éprouvé https://www.developpez.com
le 23/03/2015 à 16:22
Euh juste une précision là : les réseaux de neurones ne sont pas stochastiques, et si, on sait très bien analyser pourquoi ils renvoient une certaine réponse lorsqu'on leur fournit telle entrée (les outils de rétro engineering des réseaux de neurones existent depuis au moins 15 ans)... C'est ce genre de réponses approximatives qui font fantasmer le commun des mortels.
Contacter le responsable de la rubrique Accueil