Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Andrew NG, l'un des ténors de l'IA, considère le débat sur ses éventuelles dérives comme une perte de temps,
Partagez-vous son point de vue ?

Le , par Olivier Famien

21PARTAGES

4  0 
Alors que les discussions font rage entre les défenseurs et les détracteurs de l’intelligence artificielle, Andrew NG, directeur scientifique chez Baidu et concepteur du système d’apprentissage automatique de Google, vient de relancer à nouveau le débat sur ce sujet en affirmant il y a quelques jours au GTG 2015, « qu’il y a beaucoup d’exagérations sur le fait que l’intelligence artificielle créera des robots malfaisants dotes d’une super intelligence ». De même, il considère qu’il pourrait avoir une race de robots tueurs dans un avenir lointain, mais il ne travaille pas aujourd’hui à empêcher la conversion au mal de ces machines intelligentes, pour la même raison qu’il ne s’inquiète pas du problème de surpopulation de la planète Mars.

En effectuant de telles déclarations, NG se positionne ouvertement dans le cas du camp de ceux qui sont favorables au développement de l’intelligence artificielle sans restrictions aucunes des risques découlant de ce projet. L’idéal serait donc de travailler déjà à mettre le projet sur pied. Leurs conséquences néfastes seront traitées en son temps. À la limite, le directeur scientifique de Baidu considère le débat comme une perte de temps. Cela se comprend clairement en suivant son assertion : « Au lieu de se laisser distraire par des robots tueurs ayant basculé du mauvais côté, le défi de la main d’œuvre causé par ces machines est une conversation que le monde universitaire, l’industrie et le gouvernement devraient accepter ».

À l’opposé de ce courant de pensée, nous avons plusieurs grands noms qui sont plutôt prudents et même inquiets et souhaitent également que nous partagions les mêmes sentiments en la matière. Bill Gates par exemple affirmait en ce début d’année que « je suis du côté de ceux qui se sentent préoccupés au sujet de l’intelligence artificielle… Dans quelques décennies, les avancées dans le domaine de l’intelligence artificielle seront telles que cela deviendra un problème ». Avant lui, nous avons eu Elon Musk, fondateur de PayPal, qui recommandait en aout 2014 que nous soyons « super prudents avec l’intelligence artificielle ». Pour ce dernier, « nous invoquons le diable » avec l’intelligence artificielle. Il va même plus loin en considérant que les conséquences pourraient être encore plus dangereuses que la bombe nucléaire.

Devrait-on attendre de voir les conséquences pour se pencher véritablement sur ce sujet ? Le sujet en vaut-il la peine ? Le débat est à nouveau lancé et chaque partie affute ses arguments en faveur ou en défaveur.

Source : Blog Nvidia

Et vous ?

Que pensez-vous de l’opinion de Ng ? Êtes-vous d’accord avec lui ?
Êtes-vous pour ou contre une limitation de l’intelligence artificielle ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de yahiko
Rédacteur/Modérateur https://www.developpez.com
Le 23/03/2015 à 11:13
Je pense que le gars veut dire tout simplement qu'en l'état actuel de l'IA encore loin de qu'on pourrait en espérer (Skynet n'est pas pour demain), les débats sur les dangers de l'IA fantasment sur quelque chose d'encore tout à fait hypothétique.

Autrement dit selui lui ces débats c'est un peu de la <bip> intellectuelle.

Il n'a pas tort...
3  1 
Avatar de GPPro
Membre éprouvé https://www.developpez.com
Le 23/03/2015 à 17:07
Citation Envoyé par Matthieu Vergne Voir le message
Je n'ai pas dit stochastique, mais statistique. Merci de ne pas confondre. Et si tu sais pourquoi un réseau te donne tel résultat étant donné ce qu'il a encodé, ça ne suffit pas pour savoir pourquoi cette réponse est bonne.
Derrière c'est de l'apprentissage, il n'y a aucune magie. C'est toi qui fournit les jeux de données. Quant à regarder la configuration prise par ton réseau, comme je te l'ai dit précédemment, tu as les outils qui existent pour cela.

Edit : au lieu d'être arrogant, si tu expliquais la différence que tu fais entre statistique et stochastique... Il me semblait que tu parlais de non déterminisme, mais bon peut être que je me trompe...
1  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 23/03/2015 à 17:30
Citation Envoyé par GPPro Voir le message
Derrière c'est de l'apprentissage, il n'y a aucune magie.
Travaillant moi-même dans l'analyse de données, et en particulier dans la construction de modèles prédictifs, je suis parfois pris de vertige devant les résultats obtenus par des statistiques (je parle bien de statistiques, je n'ai pas compris ce que la stochastique venait faire dans cette histoire). Je suis pris de vertige lorsque, par exemple, mon modèle me dit que l'entreprise X a 95% de chances de tenter une manœuvre délictueuse dans le mois qui vient, et de constater, un mois plus tard, qu'elle a effectivement tenté de frauder.
Ce qui me donne le vertige dans ces histoires de prédiction, c'est tout ce qui touche au déterminisme: chaque comportement qu'est capable de prédire un algorithme met en balance la notion de libre arbitre.

Et donc certes il n'y a pas de magie dans tout ça, mais les algorithmes peuvent atteindre des degrés de complexité qui les rendent hors de portée de la compréhension humaine. Le problème se pose surtout lorsqu'il s'agit de "machine learning" et de "artificial curiosity": les algorithmes peuvent se complexifier eux-même, parfois selon des paradigmes qui sont très éloignés de la façon dont le cerveau humain fonctionne, ce qui les rends encore plus difficile à comprendre. Je suis bien incapable de prévoir le futur, mais je commence à entrevoir la possibilité d'algorithmes qui seraient totalement hors de portée de notre compréhension. Mais je pense que le problème n'est pas là. Je ne sais même pas s'il y a un problème, au sens politique du terme. En revanche, il y a un problème philosophique (moral) et il est passionnant. C'est peut-être de la br*** intellectuelle, j'accepte la critique, mais cela n'en reste pas moins passionnant.
2  1 
Avatar de Captain_JS
Membre éclairé https://www.developpez.com
Le 27/03/2015 à 9:00
Citation Envoyé par 10_GOTO_10 Voir le message
un stade ou les IA seront assez intelligentes pour prendre des décisions que nous n'aurons pas prévu, mais pas assez pour en mesurer toutes les conséquences...
Mouais ... perso je préfère un système imparfait qui ne mesure pas les conséquences parce qu'il lui manque le moyen de les mesurer (IA) plutôt qu'un système qui choisit de ne pas les mesurer parce que l'important c'est l'argent ou le pouvoir que ça va rapporter (humain)

C'est quand même assez croyable qu'on tombe toujours dans les mêmes argumentaires sur l'IA (à côté du débat sur "qu'est-ce que l'intelligence ?" : on a toujours cette dualité "les IA ne peuvent pas faire les trucs sympas qu'un homme fait" (type un tableau, mélodie ...) et "mais par contre on a peur qu'ils puissent faire tous les trucs de salops des humains" (guerre et extermination notamment). Moi perso si demain une IA me donne une raison valable de pourquoi on evrait exterminer tous les humains, raison autre que "pour que j'ai le pouvoir pour moi toute seule" elle sera allée plus loin qu'aucun autre humain
Les humains n'ont pas besoin d'IA pour s'entretuer, alors pourquoi devrait-on forcément en avoir peur plus que des islamistes, de Monsanto ou autres Américains / Russes / Chinois / ... ?
1  0 
Avatar de
https://www.developpez.com
Le 23/03/2015 à 11:33
Bonjour,

Sans aller jusqu'aux robots tueurs, on ne sait pas comment se comportera une réelle IA. Et par conséquent, même si on en est encore loin, il paraît logique de réfléchir dès maintenant à des moyens contrôles.

Le "on fait et on verra ensuite", c'est un peu léger tout de même.
1  1 
Avatar de NSKis
En attente de confirmation mail https://www.developpez.com
Le 23/03/2015 à 13:54
Citation Envoyé par Spiwit Voir le message
Bonjour,

Sans aller jusqu'aux robots tueurs, on ne sait pas comment se comportera une réelle IA. Et par conséquent, même si on en est encore loin, il paraît logique de réfléchir dès maintenant à des moyens contrôles.

Le "on fait et on verra ensuite", c'est un peu léger tout de même.

Pour info, les "robots tueurs" existent déjà... Ils ne ressemblent pas à Schwarzi sur une Harley Davidson mais sont pleinement opérationnels. Exemple: Postes de tir automatiques installés sur certaines frontières: L'appareil détecte une présence humaine et tire... Que dire de l'algorithme qui décide d'ouvrir le feu? AI ou pas?
0  0 
Avatar de yahiko
Rédacteur/Modérateur https://www.developpez.com
Le 23/03/2015 à 14:05
J'imagine que tu fais allusion au projet de robot Samsung pour surveiller la DMZ

J'ai retrouvé le lien de la vidéo digne d'une séquence de Transformers ou Robocop ^^ :


Avec la réplique (bientôt) culte :
What is that monster...
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/03/2015 à 16:48
Je n'ai pas dit stochastique, mais statistique. Merci de ne pas confondre. Et si tu sais pourquoi un réseau te donne tel résultat étant donné ce qu'il a encodé, ça ne suffit pas pour savoir pourquoi cette réponse est bonne.
1  1 
Avatar de vampirella
Membre éclairé https://www.developpez.com
Le 23/03/2015 à 17:43
Tant qu'à faire, je vais rajouter mon grain de sel

Un débat philosophique n'est jamais une perte de temps. Savoir à partir de quel moment une IA peut être considérer comme semblable à l'humain se pose en tant que discussion passionnante. Faut-il prendre en compte la reproduction ? A partir de quel degré d'autonomie ? Et quels fonctionnalités cognitives prendre pour la comparaison ?

En-dehors de cela, savoir si l'IA comporte un danger pour l'humain est une question extrêmement simple à répondre : ni plus ni moins que l'objectif que l'on sous-tend derrière chaque technologie.

Citation Envoyé par MABROUKI
Des travaux de la science ,il en sort toujours des choses utiles à l'humanite et aussi nuisibles bien entendu ,ces 2 aspects etant imputables beaucoup plus à nos comportements qu'à la science...
C'est une version défendue par certains philosophes depuis la Grèce Antique. A l'opposé, d'autres philosophes estiment que la morale d'une technologie est lié à son objectif premier.
Exemple : un pistolet ne sert qu'à tuer. La voiture sert avant tout à se rendre d'un point A vers un point B. Certes, on peut aussi s'en servir comme bélier pour écraser les passants / ouvrir les distributeurs, mais ce n'est certainement pas le but premier. C'est vers cette définition que la quasi-totalité des pays ont opté puisqu'il y a des législations sur le port et la vente d'arme très rigoureuse, tandis que la vente et possession d'une voiture n'est très souvent qu'une formalité.

De même pour l'IA : elle aura la morale (au sens philosophique) que nous lui aurons donné.

Edit : r0d a été plus rapide que moi
1  1 
Avatar de MABROUKI
Membre expert https://www.developpez.com
Le 23/03/2015 à 18:21
bonjour

Rod...
Je suis bien incapable de prévoir le futur, mais je commence à entrevoir la possibilité d'algorithmes qui seraient totalement hors de portée de notre compréhension
Justement c'est ce que n'entrevoit l'intervenant qui a parle de 3eme dimension...

C'est sûr qu'une intelligence artificielle qui évoluerais dans un univers proche du réel en 3 dimensions en ayant observer et appris des comportements scientifiques et aussi de ses semblables préprogrammés
C4est que les algo des modeles predictifs prennent en compte bien plus de DIMENSIONS :c'est qu'il raisonnent et calculent dans un "monde à N dimensions",un nombre de dimension inacceSsible à la raison humaine....
Cela rejoint l'idee du Grand Astronome Laplace qui face à l'espace sideral et à propos du determinisme disait:"s'il pouvait une intelligence humaine capable d'embrasser, à un instant t donne ,tous les faits, toutes les causes possibles ,elle pourrait predire la totalite des consequences à un instant t+1 plus tard"...Et concluait abattu "Seul la Divinite (dieu) en est capable"
C'est de ce genre de reve , dont nous rapprochent sans l'atteindre mais nous rapprochent quand meme ces modeles predictifs et leurs nouveaux paradigmes...
Meme sur l'aspect purement moral,il est egalement probable qu'il nous fassent decouvir des "aspects moraux" insoupconnes dans nos comportements que nous entrevoyons parfois difficilement,l'evolution morale des societes et meme politique etant tres retard sur son developpement materiel....
0  0