Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA : rêve ou cauchemar, Science ou Science-Fiction ?
Le cosmologiste britannique Stephen Hawking nous met en garde

Le , par doublex

36PARTAGES

3  0 
L'IA : rêve ou cauchemar, Science ou Science-Fiction ?
Stephen Hawking nous met en garde

Stephen Hawking, physicien théoricien et cosmologiste britannique, nous alerte, sur l'IA. Son avènement pourrait être la découverte la plus importante de l'Histoire de l'humanité. Mais cela pourrait être sa dernière.
Toutes nos réalisations en IA, depuis Eliza jusqu'à Cortana, seront très largement surpassées dans le futur.

À sa racine, l'IA constitue avant tout un problème philosophico-religieux.
Soit notre conscience est le pur fruit de notre physiologie, auquel cas on peut fabriquer une conscience, soit notre conscience n'est possible que par un biais métaphysique, une âme, auquel cas, on ne peut en fabriquer une.

On trouve souvent, dans les livres d'informatique, l'idée que l'Homme est un ordinateur complexe.
L'idée de l'homme-machine est encore plus vieille, dérivée du concept d'animal-machine, proposé par Descartes, au siècle des Lumières.

Aujourd'hui, deux grandes écoles s'affrontent dans le domaine de l'IA : le cognitivisme et le connexionnisme.
Doit-on émuler des comportements intelligents avec une implémentation de haut niveau (approche top-down cognitiviste), ou faire émerger l'IA à partir d'un substrat de bas niveau (approche bottom-up connexionniste) ?

Les réseaux de neurones, en tant que système capable d'apprendre connexionniste, mettent en œuvre le principe de l'induction, c’est-à-dire l'apprentissage par l'expérience.
Par opposition, les systèmes symboliques cognitivistes, capables d'apprentissage, s'ils implémentent également l'induction, le font sur base de la logique algorithmique.

Grâce à leur capacité de classification et de généralisation, les réseaux de neurones sont généralement utilisés dans des problèmes de nature statistique, tels que la classification automatique de codes postaux ou la prise de décision concernant un achat boursier en fonction de l'évolution des cours.
Mais les réseaux de neurones ont leurs limites. Un exemple caricatural, mais significatif, est le suivant: disposant en entrée du seul poids d'une personne, le réseau doit déterminer si cette personne est une femme ou bien un homme. Les femmes étant statistiquement un peu plus légères que les hommes, le réseau fera toujours un peu mieux qu'un simple tirage au hasard : cet exemple dépouillé indique la simplicité et les limitations de ces modèles mais il montre également comment l'étendre: L'information « port d'une jupe », si on l'ajoute, aurait clairement un coefficient synaptique plus grand que la simple information de poids.

Les dates prévues pour l'arrivée de l'IA divergent selon les sources, bien sûr.
Mais on peut dire que, dans l'ensemble, la singularité technologique est généralement prévue pour notre XXIe siècle.
Certains experts pronostiquent même l'avènement de la singularité dans les années 20.

Par définition, on ne peut savoir ce qu'il se passera après la singularité technologique.
Tout comme on ne peut savoir ce qui s'est passé avant la singularité initiale, le Big Bang.

Le champ est donc libre pour la Science-Fiction.
Il arrive que l'IA nous soit favorable, comme les Robots d'Asimov. Voire qu'ils nous sauvent.
Mais souvent, la prophétie est funeste...
Terminator, les Cylons... Autant de génocides de l'espèce humaine à la suite de la singularité technologique.

Stephen Hawking nous dit qu'il faut poser dans la réalité les questions de la Science-Fiction sur l'IA.

J'apporte beaucoup de questions, et peu de réponses.
Mais j'ai essayé de mettre ces questions dans le contexte le plus adéquat afin qu'un riche débat en découle.

Et vous ?

Doit-on privilégier l'approche connexionniste, cognitiviste, ou une synthèse des deux ?

Arriverons-nous à l'IA ?

Si oui, l'IA sera-t-elle amicale, hostile, ou neutre ?

Faut-il prendre des mesures pour s'assurer le contrôle de l'IA, et en éviter les risques ?

Sources :
http://www.clubic.com/interfaces-hom...ficielle.htmll
http://fr.wikipedia.org/wiki/Singula..._technologique
http://fr.wikipedia.org/wiki/Intelli...e_artificielle
http://fr.wikipedia.org/wiki/Animal-machine
http://fr.wikipedia.org/wiki/R%C3%A9...ux_de_neurones
https://www.google.fr/url?sa=t&s...Azva_x3JWZrXQ

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Kaamui
Membre expérimenté https://www.developpez.com
Le 19/05/2014 à 13:23
Je penses qu'avec le temps le débat tend à s'orienter vers un aspect philosophico-scientifique, plutôt que philosophico-religieux. Peut-on aujourd'hui, avec la science moderne, ou bientôt, atteindre un niveau de duplicité, entre organismes biologiques vivants et simulateurs de vie, suffisamment fin pour recréer le miracle de la "conscience d'exister", d'être la pièce d'un puzzle plus grand. Pourra-ton un jour obtenir des IA qui ressentiront vraiment la peur de chocs brutaux physiquement inévitables, induits par la mécanique de l'univers et son évolution imprédictible, peur pour leur existence, conscients qu'il vaut mieux qu'elle perdure, ou sera-t'on juste à un tel point de simulation que le faux sera indissociable du vrai, juste le fruit d'une succession immense de "if-statement" ?

A la première question posée, je penses que le temps nous offrira une synthèse des deux : un système à base cognitive, qui construit la logique de l'intelligence, et un réseau de connexions neuronales artificielles capable de traiter une quantité phénoménale d'informations, en parallèle, puis d'utiliser la logique précitée pour en tirer des conclusions sur la pertinence de l'information, et sur son intérêt, sa nature, sa valeur face à la référence, si existante, connue jusqu'alors par ce système.


Arriverons-nous à l'IA ?
Si on part de l'hypothèse qu'aucun événement ne mettra avant un terme à l'existence de notre branche animale, oui, sans aucun doute. Mon opinion personnelle est que la séparation corps-esprit n'existe que dans notre esprit (et donc également que dans notre corps.. euh ... vous me suivez toujours hein ? ). Ainsi, il ne peut y avoir d'existence propre de notre "âme" sans notre corps. A la fin de notre vie, l'esprit cesse d'exister, et permet au corps (un amas de particules) d'être libéré, afin de nourrir l'écosystème qui l'a vu naître et qui l'a nourrit durant toute son existence (en excluant les fins de mois difficiles ), et la boucle est bouclée. Si nous arrivons à simuler les principes de la génétique artificiellement, l'IA aura une âme.


Si oui, l'IA sera-t-elle amicale, hostile, ou neutre ?
Si on parle d'une IA autonome consciente, capable d'avoir des sentiments, car des avis personnels sur des sujets, alors je dirais que chaque entité de cette nouvelle espèce aura son caractère, puisque sujet comme nous tous à un point de vue dans l'espace-temps unique à chaque instant, avec une somme d'événements cumulés toute aussi unique.


Faut-il prendre des mesures pour s'assurer le contrôle de l'IA, et en éviter les risques ?
Si on en arrive au point qu'ils soient conscients, mais avec des capacités décuplées par rapport à l'homme, il faudra espérer qu'une majorité d'entre-eux auront une vision plus juste que pragmatique, ou que le plus orateur d'entre eux soit un pacifique qui souhaite servir la coexistence de nos deux espèces respectives, sachant que le rapport d'une espèce à son créateur est une notion qui pour la première fois sera perceptible réellement, et pas seulement métaphysiquement.

Il faudra également se méfier, peut-être même encore plus, du contrôle de l'homme sur ces IA. Un rapport maitre-esclave d'un homme vers une machine, et la possibilité de "pirater" une telle IA pourraient très vite remettre en cause la durée de vie de notre espèce.

Vers un aspect philosophique du débat qui est posé, j'aurais tendance à me poser certaines questions, pour savoir "de quoi parle-t'on quand on parle d'une 'Intelligence Artificielle Consciente et Autonome" :
- Arriverons-nous un jour à développer une IA capable de créer, d'innover, de souffrir moralement, d'être traumatisée, d'aimer, de haïr, etc ?
- Pourra-t'on un jour obtenir un IA capable de désobéir à la logique de son programme ? Si non, est-ce que l'Homme le peut ?
- Dois-t'on croire au mythe du retournement des machines conscientes contre leurs créateurs, comme celui des dieux contre les titans, puis des hommes contre les dieux, ou s'agit-il de l'expression inconsciente d'un même constat sur le rapport de l'Homme à son univers , sa nature ?

Il y a également un autre aspect qui me vient en tête : on oppose systématiquement les organismes vivants des futures IA qui seront des machines, mais rien n'est moins sûre. Où se trouve la frontière entre naturel et artificiel lorsqu'on voit émerger des systèmes biologiques dans l'informatique ? Peut-on imaginer que l'IA du futur soit en réalité un être biologique ? Dans ce cas là, sera-t-elle une intelligence artificielle ? Peut-être que le lendemain de l'intelligence artificielle sera l'IN (intelligence naturelle)
4  0 
Avatar de jmv
Membre confirmé https://www.developpez.com
Le 19/05/2014 à 13:47
Bonjour,
Citation Envoyé par doublex Voir le message
À sa racine, l'IA constitue avant tout un problème philosophico-religieux.
Soit notre conscience est le pur fruit de notre physiologie, auquel cas on peut fabriquer une conscience, soit notre conscience n'est possible que par un biais métaphysique, une âme, auquel cas, on ne peut en fabriquer une.
Personnellement j'adhère à la première philosophie, donc pour moi, oui, il est théoriquement possible de créer une I.A.

Citation Envoyé par Uranne-jimmy Voir le message
Si oui, l'IA sera-t-elle amicale, hostile, ou neutre ?
Ca dépendra des intentions du créateur
Ben non justement, si on crée une système vraiment intelligent, rien ne garantie que ce système acceptera de suivre nos ordres.

Le problème est qu'on utilise le terme "intelligence artificielle" à toutes les sauces. Des objets sont dit intelligents alors qu'ils ne le sont pas, ils peuvent être complexes, sophistiqués, puissants,... mais pas intelligents. C'est du pur marketing de dire qu'un système est intelligent actuellement. L'intelligence artificielle n'existe pas encore, il y a bien du chemin à accomplir pour y arrivé, mais je suis certain que ce sera possible.

Et l'intelligence amène parfois (souvent ?) la désobéissance.

jmv
3  0 
Avatar de Cafeinoman
Membre éprouvé https://www.developpez.com
Le 21/05/2014 à 10:38
Ça, c'est un débat qui ne peut être conclu que par l'arrivée d'une IA... et ça arrivera!
Histoire de dissiper les malentendus avant de commencer, une IA est, selon moi, un être qui :

_A conscience de sa propre existence, et par là de sa propre singularité.
_Évolue de manière autonome en faisant ses propres choix.
_Ne respecte d'autre éthique que celle qu'il considère comme sienne.

Partant de là, on peut déjà rayer la question de savoir si elle est bénéfique ou maléfique : cela n'as pas de sens. Prévoir le comportement d'un tel être revient quasiment à spéculer sur le déroulement d'un premier contact extraterrestre : on ne peut que poser des hypothèses basées sur l'évolution possible de l'être en question.

Donc, comment peut évoluer une IA? Deux facteurs de base : son milieu d'apprentissage et son code.
On pourra dans une certaine mesure lui inculquer une éthique, qui alors dépendra de ses "parents". Mais comme tout les enfants, elle voudra en un jour sortir de la maison pour expérimenter le monde. Pour un programme informatique, cela signifie se conencter librement au réseau mondial et à ses milliard de capteurs. A partir de la, il est quasi impossible de prévoir comment son éthique évoluera.
Quant à son code, on peut assez facilement supposer qu'elle sera assez rapidement capable de le modifier de sa propre volonté. En effet, il sera dès le départ compréhensible pour elle (contrairement au code génétique pour nous par exemple). Les limitations logicielles implantés ne sont donc pas une option viable, et seraient au contraire "traumatisante" pour une IA.

Un facteur est également important à considérer : les êtres pensant connus, et même la plupart des animaux, apprennent de leur environnement mais aussi, voire surtout, au contact de pairs. Une IA seule au monde serait donc foncièrement différentes d'un ensemble d'IA, autrement dit d'une espèce à part entière qui, à plus ou moins long terme, développerai sa propre culture, sa prorpe esthétique, son propre contrôle social... Quant à savoir s'il serai plus facile pour nous de traiter avec un individu unique ou une espèce, franchement je l'ignore.

Pour terminer, la question du "problème Skynet" : qu'elle serait la conséquence d'une divergence de point de vue? Là encore la question n'est pas tranchable, et seule deux choses sont certaines :
_il y aura des divergences de point de vue
_en cas de conflit "armé", le camps qui lancera la première frappe aura la victoire.
La combinaison des deux n'augure rien bon, c'est certain. Cependant la coopération et le compromis sont aussi des hypothèses viable, si l'éthique développée par la/les IA pousse en ce sens. De même, l'isolation est également envisageable : si quitter la planète est difficile pour de fragiles humains, ça l'est bien moins pour une IA, dont les besoins physiologiques sont moindres et qui peut bien plus facilement se protéger des aléas d'un voyage spatial tout en vivant assez longtemps pour se permettre des vitesses subluminiques.

Voilà, j'espère n'avoir était ni trop long, ni trop pompeux.
3  0 
Avatar de Kearz
Membre expert https://www.developpez.com
Le 23/05/2014 à 9:57
@Cafeioname:

Une IA qui a accès à tous le savoir n'a plus besoin d'apprendre, c'est plus vraiment une IA, c'est SIRI dans un robot. Tu prends SIRI, tu le met dans un robot avec décryptage d'image il se débrouillera pour les recherches sur Google. (Par contre il faut quand même des capteurs, internet ou pas, il faudra qu'il capte la température pour pouvoir évaluer le niveau de dangerosité)

Maintenant tu peux lui mettre aussi une IA mais ça serait pas vraiment une bonne idée du coup.
"J'ai accès à tous le savoir du monde" + "Je sais le stocker et l'utiliser" + "Je suis intelligent" > Homme. (et dès la sortie d'usine pour le coup)
Pour faire ça autant se tirer une balle dans le pied. Jamais une machine plus intelligente que l'homme (et pour le coup pas qu'un peu) pourra rester contrôlable.
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 25/05/2014 à 0:02
Pour la notion d'espèce lancée par Kaamui, actuellement on définit une espèce par un ensemble d'individus capables d'avoir une descendance féconde (si j'en crois Wikipédia). Sur cette seule base, si on considère une copie à l'identique comme un processus de création de descendance, chaque programme est une espèce à part entière (ils ne se reproduisent pas entre eux mais tout seul). Si on considère qu'un programme n'a pas accès à son code mais est capable de reproduire celui d'un autre programme à l'identique, là tous les programmes disposant de cette capacité pourront être considérés comme une espèce à part entière. Si on imagine un mélange de code entre les deux parents, comme on sait déjà le faire en programmation génétique, on se rapprochera davantage du processus de reproduction comme on le connait, et chaque programme pourra être différent de ses parents.

Citation Envoyé par ypicot Voir le message
En tirant un peu (mais pas beaucoup) sur le théorème d'incomplétude de Gödel, qui dit en très gros qu'un ensemble ne peut pas se contenir lui-même, on peut poser l'hypothèse que l'intelligence humaine ne peut pas créer un simulacre parfait d'elle même, et donc que l'IA ne sera pas humaine au sens où elle ne pourra pas mimer l'être humain.
Le théorème de Godel n'est pas un principe philosophique, il ne faut pas le mettre à n'impote quel sauce. C'est un théorème, autrement dit un ensemble d'hypothèses spécifiques qui mènent via un raisonnement formel à un résultat précis. En dehors de ces hypothèses, rien n'est affirmé. Notamment, un ensemble peut se contenir lui-même, si tant est qu'on travaille dans un contexte qui autorise une telle récursivité. Prend un programme en Java, crée un HashSet<HashSet<?>>, ajoute le à lui-même et tu obtiendras un exemple concret d'ensemble qui se contient lui-même.

En ce qui me concerne, je lis beaucoup de choses en rapport avec l'IA, mais rarement des choses qui ciblent l'IA dans son ensemble. Du coup j'en ai une vision bien personelle. Cela dit, c'est aussi dû au fait que c'est au centre de mes projets persos depuis longtemps, et la production d'une IA est mon objectif les plus important sur le long terme. Et mes recherches actuelles sur la recherche d'expert (et les cours dispensés dans mon université) me permettent de préparer mon projet doucement mais sûrement.

Pour ma part, une IA n'a rien à voir avec ce qu'on appelle "système intelligent" de nos jours, dans le sens où même ce qui apparaît comme étant le plus "intelligent" à ma connaissance du côté logiciel, à savoir Watson d'IBM, qui bas des records à Jeopardy et est utilisé dans d'autres domaines de prises de décision, n'est rien de plus qu'un aggrégat d'algorithmes savemment dosés pour que ça marche. Autrement dit, c'est intelligemment programmé, mais certainement pas intelligent. Pour ce qui se fait en robotique, ça me semble plus se rapprocher de ma vision de l'IA : des agents autonomes capables d'apprendre, mais surtout capable d'apprendre à partir d'une base très réduite si ce n'est rien, comme ce qui se fait avec iCub qui apprend comme un enfant. Cela dit, je ne suis pas assez calé dans le domaine pour savoir jusqu'où ça va, et en particulier pour savoir l'autonomie du robot vis-à-vis de son apprentissage (i.e. apprendre et exploiter des choses imprévues où à peine plus que ce que ses concepteurs font l'effort de lui enseigner).

De ce que j'en ai compris, il y a actuellement deux approches fondamentales à la production d'une IA, mais qui vont au dela des "écoles" cognitiviste et connexionniste : l'apprentissage et l'inférence. En particulier, on connaît les systèmes experts, qui visent à exploiter des règles données par des experts humains, et les systèmes à apprentissage, qui permettent d'apprendre ces règles par l'exemple. L'avantage des systèmes experts est qu'ils sont capables de donner non seulement la réponse à une question mais aussi le raisonnement qu'il y a derrière (composition de règles connues pour identifier une ou plusieurs règles qui permettent de déterminer la réponse de la question), ce qui est primordial pour évaluer sa pertinence. En revanche, un système expert s'appuie sur ces règles fournies a priori et est incapable d'en apprendre de nouvelles, seulement de composer celles qu'il connaît. De l'autre côté, les systèmes à apprentissage ont la capacité de déterminer par eux-même les règles en se basant sur une base d'exemples dont on connaît déjà le résultat, ce qui leur permet de donner des réponses satisfaisantes sans même qu'on ait besoin de comprendre pourquoi telle réponse est bonne. En revanche, ces règles s'encodent sous forme de valeurs et d'interdépendances qui n'ont aucun "sens", autrement dit une configuration d'ensemble qui fonctionne "par chance" pour le cas précis qu'on traite. "par chance" est assez polémique, vu que le processus d'apprentissage général est maitrisé, mais le résultat concret d'une session d'apprentissage est une boîte noire, donc impossible d'en extraire le moindre sens pour l'exploiter ailleurs ou retirer ce qui est inutile. C'est du tout ou rien.

Pour ma part, en considérent qu'une règle d'inférence est une description conceptuelle qui identifie une cause, un effet et la relation de cause à effet qui les lie, une IA est alors une entité capable (i) de construire des règles d'inférences, (ii) de les utiliser et (iii) de les raffiner (i.e. de les améliorer "en son sens", ce qui me semble être proche de la définition de Wikipédia telle que citée par Zilpix. Les deux premiers points se retrouvent dans les systèmes experts, qui sont capable de construire des règles d'inférences complexes à partir de règles d'inférences simples déjà connues et de les utiliser pour déterminer de bonnes réponses. Les deux derniers points se retrouvent dans les systèmes à apprentissage, qui sont capable de se raffiner via un process d'essai-erreur de façon à fournir de meilleures réponses. Mais aucun à ma connaissance n'est capable d'avoir les trois à la fois : les systèmes experts ne retouchent pas les règles qu'ils connaissent et les systèmes à apprentissage les utilisent à l'aveuglette (elles sont là, encodées, mais impossibles d'en extraire les concepts et relations). Si un système était capable d'effectuer ces trois points, il aurait la capacité de partager ses règles d'inférence avec un autre système ou d'en acquérir de nouvelles de la même manière. En particulier, si le langage utilisé par ce système devait être un langage utilisé par les humains, on serait en mesure de lui fournir des règles déjà connues, et lui serait capable de nous en fournir d'autres qu'on n'aurait pas forcément identifiées.

C'est là tout mon objectif sur le long terme : développer un système capable d'effectuer ces trois tâches et doté d'une capacité de communication suffisante pour échanger les règles d'inférence. Et à mon avis, pour que cela soit faisable, il manque quelque chose de primordial aux systèmes actuels. Si on prend un système à apprentissage comme base, il ne lui faudrait pas uniquement apprendre ce qu'on lui donne comme exemple, mais qu'il apprenne le langage qui va avec, car c'est à partir de là que viennent les concepts utilisables pour construire des règles d'inférence ayant du sens. Sans cela, ce n'est rien de plus qu'une chambre chinoise : un illettré qui manipule des symboles qui lui sont incompréhensibles en essayant d'optimiser le processus pour obtenir le moins de coups de fouets que possible (i.e. le plus de bonnes réponses). Rien d'intelligent là dedans vis-à-vis de la réponse retournée.

Cela dit, apprendre un langage ne se résume pas à connaître un dictionnaire de mots et des distributions de probabilités entre ces mots, comme le font les systèmes actuels de traduction automatique ou de traitement/production de la parole. C'est là aussi la capacité d'identifier des règles (orthographe, grammaire, etc.) ou de les obtenir d'un tiers, de les exploiter et de les raffiner par la pratique. Autrement dit, de mon point de vue, apprendre un langage tout comme apprendre les règles d'inférence pour répondre à une question (ou résoudre un problème) revient à régler le même problème.

En allant plus loin, pour pouvoir effectuer ces trois tâches correctement, il faut que le système soit capable de ressentir, juger et expérimenter : ressentir pour modéliser en interne le monde qui l'entoure (ou qui le compose, mais ça reste relatif), juger pour classifer en positif/négatif (quelle que soit la dimension : bon/mauvais, chaud/froid, blanc/noir, etc.), avec tout un panel entre les deux extrêmes au besoin, et expérimenter pour avoir l'occasion de changer le monde qui l'entoure pour en évaluer (feedback via ressenti + jugement) les effets que telle action a et raffiner en conséquence ses règles. Et de manière générale, cela s'applique autant sur le monde externe (e.g. un robot déplaceant des objets) qu'interne (e.g. processus de pensée mettant des règles contradictoires en opposition pour choisir ce qu'il y a de plus crédible ou identifier une expérience à effectuer sur le monde externe pour valider/rejeter une hypothèse).

Ensuite, la vie m'a appris qu'aucune règle d'inférence ni aucun concept n'est absolu : c'est toujours une question d'intérêt. L'intérêt d'expliquer plus/mieux pour un scientifique, l'intérêt d'expliquer ce qui nous arrange pour un idéaliste ou corrompu, l'intérêt d'avoir une explication qui colle à ce dont on a l'habitude pour les conservateurs, etc. Par exemple, on s'amuse à dire aujourd'hui qu'il est absurde de dire que la Terre est plate et qu'on devrait dire que la Terre est ronde. Mais si on se met dans un contexte local (quelques mètres, une maison, un quartier, une ville), considérer que la Terre est plate est tout à fait raisonnable (justifiant le point de vue d'antant), et appliquer des théories qui se basent sur un plan donne de très bons résultats. Si on affirme cela sur la base que cela ne permet pas d'obtenir de bons résultats entre Paris et Washington DC, donc en faisant jouer la notion de précision, on peut tout aussi bien dire que la Terre n'est pas ronde, mais est une patate écrasée. Et on pourra toujours aller avec davantage de précision en disant qu'il y a des tas d'aspérités sur cette patate, et ainsi de suite. Mais c'est bien parce que c'est un niveau de détail inutile (qui n'améliore pas les résultats de manière significative) qu'on se contente de représenter la Terre sous forme de sphère à l'école. Et avec les même arguments, il est donc toujours d'actualité de dire que la Terre est plate si on se place dans un contexte local.

La représentation qu'on se fait du monde est donc tout à fait subjective (clin d'oeil à TheChovix) et c'est sur cette subjectivité que se basent les concepts utilisés et les règles d'inférence qui les relient. Donc pour qu'il y ait intérêt, il faut qu'il y ait subjectivité (alias préférence), et donc le système doit disposer d'intérêts qui le mènent à agir dans le sens qu'on le souhaite (sinon il sera toujours de ceux qui refusent de dire que la Terre est ronde). Et c'est là il me semble qu'il faudra mettre toute l'attention nécessaire, de façon à donner au système des intérêts qui améliorent la qualité de vie de chacun, et non de certains, autrement on aura toujours des raisons d'avoir peur que le système se retourne contre nous. Là où les trois lois d'Asimov doivent s'exprimer je pense, c'est sur ce niveau intentionnel qui dirige l'ensemble.

Enfin, je terminerai ma tirade sur la notion de conscience.

L'univers agit comme un tout, chaque particule interagissant avec les autres à tout instant et en parallèle, et donc soit tout est passif, et là tout ce qui se passe est cet ensemble d'interactions, soit il y a effectivement une (ou des) intention(s) qui modifient ces interactions (et qu'on pourrait peut-être trouver au sein de l'aléatoire de la physique quantique, avec l'irrespect des inégalités de Bell) et qui dirige(nt) au moins partiellement le cours des choses. Pour ma part, le fait que l'être humain soit un ordinateur complexe me va tout à fait. Qu'on n'ait aucun libre arbitre et que tout soit déjà décidé ne me déplait en rien. Je me satisfait de découvrir tout simplement ce qui m'attend, vu que je ne le sais pas à l'avance et n'ai donc pas de raisons de m'ennuyer. Et Mat.M, si tout ce que tu trouves à redire à ça est la notion d'intuition, si on parle de la capacité d'avoir une idée qui te surgit dans la tête sans explication, un réseau neuronal fera très bien l'affaire.

Néanmoins, si tel est le cas, est-ce que mon corps a besoin d'une conscience ? S'il se contente de réagir à des stimuli, même si c'est de manière plus ou moins complexe, quelle est cette sensation d'avoir accès à l'information fournie par mes yeux mais pas à celle des yeux de mon voisin ? Si ça devait se limiter à la simple barrière physique (je n'ai pas de nerf optique qui lie son oeil à mon cerveau et les ondes électromagnétiques de ses nerfs sont trops faibles pour que je les différencie du bruit ambiant) quel est l'intérêt que je sois conscient de cette limite ? Après tout, un robot ne "ressent" que de par ses capteurs et agit de par son Grafcet, sans conscience, et cela ne le gène en rien dans sa tâche. S'il devait y avoir un organe siège de la conscience, comment arriverait-il à accéder à l'ensemble de ces informations que fournissent les 5 sens en plus de "manager" ce processus interne qu'est la pensée ? Après tout, on est à la fois conscient que la lumière soit allumée dans une pièce, qu'il y fasse néanmoins froid, et qu'on se demande (processus de pensée) s'il n'y aurait pas un chauffage pour la réchauffer. Comment un organe central (une conscience unique) serait à même d'obtenir l'ensemble de ces informations ? Il semble que c'est quand certaines zones du cerveau sont actives suffisamment longtemps qu'on devient conscient des éléments qui y correspondent, mais cela expliquerait une gestion distribuée et non centralisée. Quel élément serait tellement connecté qu'il "sentirait" quelle partie du cerveau est encore active pour ajouter les éléments qui y correspondent à la conscience ? Et qui en plus permettrait de gérer un processus aussi compolexe qu'est la pensée, avec tous ces concepts différents qui nous passent par la tête ?

Sur ce point, j'ai 2 interrogations :
- est-ce que cet effet de conscience est dû à un processus physique (organe, nouvelle formule à intégrer aux équations de Maxwell, etc.) ou pas ?
- si oui, est-ce un élément qui s'expliquerait de manière darwinienne (qui aurait un intérêt dans notre survie) et, plus spécifiquement, qui serait nécessaire à l'intelligence ?

J'ai vu récemment sur TED cette vidéo :
http://www.google.com/url?q=http%3A%...ma3dkZybBpxaSA

On y explique succinctement comment une équation simple aurait permit d'obtenir des comportements permettant une gestion stable de situations instables, tel que le pendule inversé (si vous avez déjà essayé de faire tenir un parapluie debout sur la paume de votre main, vous voyez de quoi je parle). Autrement dit de contrôler simplement des processus intrinsèquement complexes. Ce serait un support de plus à l'idée que l'intelligence soit un comportement naturel tout à fait implémentable, même sans conscience.

Je reste donc avec mes interrogations sur la conscience, mais la conviction qu'on puisse obtenir un système vraiment intelligent (et non intelligemment implémenté comme ce qu'on a aujourd'hui). Et j'ai pour objectif principal de développer un tel système de manière générique, c'est à dire qu'on puisse avoir un ensemble de capteurs et d'actionneurs sur lesquels on pourrait l'appliquer sans connaissances a priori, et qu'il soit capable d'apprendre à les utiliser par l'expérimentation. Là où je me focalise en ce moment, c'est la notion d'intention et notamment ce qui permet d'apprendre que tel ressenti est à éviter et tel autre ressenti à reproduire, ce qui est fondamental pour établir le jugement. Et avec tout cela en tête, voilà ce que je répondrai aux questions de cet article (globalement, la même chose que jmv) :

Citation Envoyé par doublex Voir le message
Doit-on privilégier l'approche connexionniste, cognitiviste, ou une synthèse des deux ?
Les deux approches ont des points communs (apprentissage et inférence), et c'est sur ces points communs qu'il faut travailler. L'approche connexionniste est bien pour le bas niveau, cognitiviste pour le haut niveau, mais c'est sur la transformation de l'un en l'autre que se jouera, je pense, le déclic final.

Citation Envoyé par doublex Voir le message
Arriverons-nous à l'IA ?
Question mal posée. Il faut avant tout définir ce qu'on entend pas IA, un terme qui aujourd'hui veut dire tout et n'importe quoi. Une fois qu'on a une idée précise de ce qu'on cherche à faire, ce ne sera rien de plus qu'une question de cohérence : si la définition est cohérente, il ne restera plus qu'à résoudre les soucis techniques, sinon ce sera naturellement infaisable. En l'état, répondre à cette question revient à choisir "religieusement" son camp.

En l'occurrence, si on se limite à l'idée de Saverok, des IA on en a déjà : un réseau de neurone qui apprend des choses tout à fait opaques à l'esprit humain, sans une once de sentiment car ça ne lui sert à rien. La seule chose qui fait qu'on soit capable de prédire son comportement, c'est qu'on l'a forcée à apprenre ce qu'on voulait. Laisse là apprendre dans son coin et tu ne prédiras pas mieux qu'un tirage à pile ou face. A vrai dire tu ne sauras même pas ce qu'elle aura appris. Et pour la notion de temps, on sait déjà comment l'encoder, notamment avec les chaînes de Markov par exemple. Cette notion de temps est centrale dans la gestion de files d'attentes ou dans la reconnaissance de la parole par exemple. Même si le concept diffère du notre, c'est avant tout une question de capteurs (et non on ne réduit pas la machine à sentir le chaud/froid, on lui en ajoute la possibilité, ce ne sont donc pas des limites comme tu penses le croire, et si l'homme perd son odorat ou sa vision il n'en meure pas, tout comme il y a des capteurs qui peuvent être vitaux pour la machine). De la même manière, une fourmi ou une baleine n'ont pas la même perception du temps que nous, et je doute que tu puisses dire que les deux sont dépourvus d'intelligence (sinon tu ne te documentes pas assez ou on n'a pas les même définitions).

Citation Envoyé par doublex Voir le message
Si oui, l'IA sera-t-elle amicale, hostile, ou neutre ?
Encore une fois soucis de définition : amicale pour qui ? Hostile pour qui ? Si tu es amical avec quelqu'un tu es nécessairement hostile envers ceux vers qui il est hostile. Si tu ne veux pas l'être tu te dois de rester neutre, c'est là tout le problème d'un arbitrage entre deux partis en conflits. Si un système devait être hostile à l'espèce humain, il faudrait se demander envers quoi il serait amical... Après tout, les lions mangent les gazelles, qui mangent les végétaux, etc. Si on devait se limiter à une destruction de l'environnement, cette IA aurait vite fait de manquer de cohérence dans ses actes.

Citation Envoyé par doublex Voir le message
Faut-il prendre des mesures pour s'assurer le contrôle de l'IA, et en éviter les risques ?
Si on parle d'une IA en tant que système vraiment intelligent, et donc autonome, il y aura nécessairement une partie non contrôlée, comme c'est déjà le cas avec les algorithmes d'apprentissage (on ne contrôle pas les résultats, on tente de les faire converger mais on ne les contrôle pas). Si on tente de faire une IA pour simuler un être humain, il faudra compter sur les techniques de contrôle humain, telle que le contrôle par la force, la capacité de convaincre (influencer les intérêt de la machine), etc. Autrement, je ne doute pas qu'on aura d'autres outils à notre disposition, le plus efficace restant peut-être la main sur la prise de courant.
3  0 
Avatar de Kearz
Membre expert https://www.developpez.com
Le 20/05/2014 à 10:19
C'est un grand fantasme de créer un robot à l'image de l'homme mais je ne l'ai jamais compris
l'être humain est très limité (petit, lent, pas fort, champ de vision limité, peu de mobilité, etc.)
Peu importe l'aspect, on trouvera toujours un autre animal plus performant que l'être humain sur ce point
Ce n'est pas vraiment un fantasme, l'idée est de créer une Intelligence Artificielle, pas de créer une arme ou même une machine industrielle.
Le seul aspect où l'homme est supérieur aux animaux, c'est l'intelligence. Pour le reste, en effet, il y aura toujours un animal pour nous battre.

Après l'intelligence c'est quoi? Savoir que la réponse est 42?
L'intelligence c'est pouvoir répondre/analyser/comprendre/apprendre et pour faire ça, il faut comprendre toutes les caractéristiques du monde: chaud, froid, gout, etc. Sans expérimenté les sensations, on ne peut pas vraiment comprendre toutes les variables du monde.
Un enfant, tu auras beau lui dire "ça brûle!", s'il n'a jamais expérimenté la brûlure, il ne le comprendra pas, il sera "ignare de la brûlure". C'est d'ailleurs pour ça qu'on est un peu "ignare" sur la mort, vu qu'on ne peut pas l'expérimenter. (enfin si mais le plus tard possible et en plus on peut plus trop en témoigner après.)

Une vraie IA apprend sinon c'est juste un algorithme avec de "if" partout, c'est pas de l'intelligence pour moi. Donc sans capteur et l'expérience du feu, une IA ne peut pas comprendre la notion de brûlure sans qu'on lui ait inscrit en dur dans l'algorithme mais dans ce cas il faut lui inscrire:
- Le feu = la mort
- L'eau (pour un robot non aquatique) = la mort
- L'humidité ambiante = tes circuits vont prendre cher
- Tomber de haut = ça risque de te casser
- ...

C'est plus très intelligent, c'est juste un robot avec un algo stupide qui connait toutes les caractéristiques du monde terrestre. Et la, ton robot tu le fous sur mars, il comprend plus rien.

Maintenant je suis pas sur qu'une vraie IA soit gérable et donc enviable :
Je suis un robot > J'apprends que je suis un robot > J'apprends que les robots sont des objets des humains > J'apprends ce que font les humains des objets qui ne leur conviennent plus
=> 2 choix s'offre à moi:
- Paraître parfait et toujours enviable pour toujours convenir aux humains.
- Je tues avant d'être tué. (ou je deviens maître de mon maître mais sur le principe c'est pas loin)

Alors on pourra dire:
"loi d'asimov" => Nous qui sommes "intelligent", on ne respect même pas le code de la route. Alors les lois pour les personnes intelligentes, c'est quoi? Des barrières franchissable, rien de plus, c'est pas des murs lisse de 50 mètres de haut.
"backdoor" => L'homme à la base marché à 4 pattes et étaient poilu, il a évolué pour "s'adapter"/"survivre". Donc les backdoor seront corrigés par les robots.
"On sera toujours les plus intelligent" => La puissance des PCs ne cessent d'augmenter, c'est pas dangereux parce que le PC est bête et qu'il ne sait rien faire de lui même.

Une vraie IA s'approche donc de l'être humain si sont but est d'être vraiment intelligent...
Dans l'idéal, il faut créer des IAs adaptées à un milieu avec une intelligence limité. Je ne sais pas comment mais une IA spécialisé dans la surveillance (analyse de personne, du comportement) devrait être incapable d'apprendre une autre spécialité (ex: IAs spécialisé dans l'élaboration de recettes de cuisine). Donc il ne faut pas créer une IA mais des IA, bien différente/bien distinct. (Des SAI Stupid Artificial Intelligence )
2  0 
Avatar de Kaamui
Membre expérimenté https://www.developpez.com
Le 20/05/2014 à 10:27
Citation Envoyé par Saverok Voir le message
Pourquoi faire ?
Quel intérêt ?
Pourquoi créer une machine avec des limites dès sa conception ?
Ce ne sont pas des limites. Grâce à quoi crois-tu que notre espèce a survécu. Une IA faite d'une matière fondant à 1200° sera contente d'avoir un capteur de chaleur qui la met en alert quand elle passe dans un endroit trop chaud pour sa préservation, non ?
2  0 
Avatar de Yorwan
Futur Membre du Club https://www.developpez.com
Le 21/05/2014 à 17:37
Un débat très intéressant et qui s'imposera à plus ou moins long terme en effet. Qui sait quand on pourra commencer à considerer un systême artificiel réellement intélligent mais si l'on considère qu'il y a un siècle on se déplacait à cheval, sans doute pas dans si longtemps...

Citation Envoyé par Mat.M Voir le message
ah non...certainement pas.
L'Homme n'est pas un ordinateur complexe.
Un ordinateur n'est pas capable d'avoir de l'intuition ou autre sens...
c'est une hérésie totale que de vouloir modéliser et reproduire sous forme numérique la psychologie et le fonctionnement du cerveau humain.

l'Intelligence émotionnelle fait justement partie des autres facultés de l'Homme qu'un système informatique peut très difficilement reproduire.
Ah bon pourquoi? Sauf à pouvoir prouver l'existence d'une âme qui ferait en effet la différence métaphysique entre un homme, un singe ou une tomate nous avons tout d'un ordinateur/robot complexe. Certes très, très complexe du fait des milliards d'année d'évolution de la vie nécessaire à l'émergence de notre état mais sauf (preuve du contraire) ni plus ni moins que la somme de ses parties.

Un sens ou une intuition, n'est (à nouveaux sauf preuve du contraire ou supposition paranormal) que le résultat de capteurs , d'arc réflexes et de conditionnement. Rien ne soit à priori impossible à créer, bien que pas facile je te l'accorde.

Intélligence émotionelle? Tu veux dire...
- réaction conditionnée au comportement des autres individus
- interprétation réflexe des mimiques faciales
- Compréhension instinctive des comportement sociaux
à nouveau rien de surnaturel, juste de l'inconscient, donc du processus d'arrière plan pour une IA

Citation Envoyé par Saverok Voir le message
Pourquoi faire ?
Quel intérêt ?
Pourquoi créer une machine avec des limites dès sa conception ?

La machine pourra percevoir son environnement grâce à des capteurs mais ne ressentira pas cet environnement dans sa chair
si le capteur cesse de fonctionner, la machine continuera de fonctionner
si un être humain ne ressent plus le chaud et le froid, sauf maladie extrêmement rare, c'est qu'il est mort ou dans le coma

C'est un grand fantasme de créer un robot à l'image de l'homme mais je ne l'ai jamais compris
l'être humain est très limité (petit, lent, pas fort, champ de vision limité, peu de mobilité, etc.)
Peu importe l'aspect, on trouvera toujours un autre animal plus performant que l'être humain sur ce point
Seul notre intelligence nous a permis de sortir du lot
et c'est créer une IA encore plus intelligente que l'homme qui a du sens

Créer une machine qui ressemble à l'homme avec les mêmes limitations physiques et sensorielles n'a pas grand intérêt
Si c'est pour créer à son image, faire des enfants fonctionnent très bien
Citation Envoyé par Kearz Voir le message
Ce n'est pas vraiment un fantasme, l'idée est de créer une Intelligence Artificielle, pas de créer une arme ou même une machine industrielle.
Le seul aspect où l'homme est supérieur aux animaux, c'est l'intelligence. Pour le reste, en effet, il y aura toujours un animal pour nous battre.

Après l'intelligence c'est quoi? Savoir que la réponse est 42?
L'intelligence c'est pouvoir répondre/analyser/comprendre/apprendre et pour faire ça, il faut comprendre toutes les caractéristiques du monde: chaud, froid, gout, etc. Sans expérimenté les sensations, on ne peut pas vraiment comprendre toutes les variables du monde.
Un enfant, tu auras beau lui dire "ça brûle!", s'il n'a jamais expérimenté la brûlure, il ne le comprendra pas, il sera "ignare de la brûlure". C'est d'ailleurs pour ça qu'on est un peu "ignare" sur la mort, vu qu'on ne peut pas l'expérimenter. (enfin si mais le plus tard possible et en plus on peut plus trop en témoigner après.)

Une vraie IA apprend sinon c'est juste un algorithme avec de "if" partout, c'est pas de l'intelligence pour moi. Donc sans capteur et l'expérience du feu, une IA ne peut pas comprendre la notion de brûlure sans qu'on lui ait inscrit en dur dans l'algorithme mais dans ce cas il faut lui inscrire:
- Le feu = la mort
- L'eau (pour un robot non aquatique) = la mort
- L'humidité ambiante = tes circuits vont prendre cher
- Tomber de haut = ça risque de te casser
- ...

C'est plus très intelligent, c'est juste un robot avec un algo stupide qui connait toutes les caractéristiques du monde terrestre. Et la, ton robot tu le fous sur mars, il comprend plus rien.

L'interet de disposer de capteurs est indiscutable, mais l'interet d'expériences émotionelles est bien plus discutable. Dans le cas de l'humain je ne me suis pour ma part jamais pendu, noyé, coupé la tête... pourtant j'ai la forte intuition que ça ne doit pas être agréable Une intelligence n'apprend pas que par l'expérience mais aussi par la déduction, l'intéret des émotions ne réside que dans la structure particulière de la mémoire humaine qui se rattache plus au émotions.

Citation Envoyé par Cafeinoman Voir le message

Un facteur est également important à considérer : les êtres pensant connus, et même la plupart des animaux, apprennent de leur environnement mais aussi, voire surtout, au contact de pairs. Une IA seule au monde serait donc foncièrement différentes d'un ensemble d'IA, autrement dit d'une espèce à part entière qui, à plus ou moins long terme, développerai sa propre culture, sa prorpe esthétique, son propre contrôle social... Quant à savoir s'il serai plus facile pour nous de traiter avec un individu unique ou une espèce, franchement je l'ignore.
Je suis d'accord avec la nécessité de communication et de contact dans le dévellopement d'un intélligence, mais il y a un facteur à considérer dans le cas d'un IA in-silico c'est la reproductibilité. Là où la nature humaine fait qu'il est tout à fait imposible d'avoir plusieurs individus identiques, il est tout à fait possible de copier le code et l'ensemble des données d'un programme et donc de le dupliquer, La notion d'esèce devient donc beaucoup moins significative dans ce cas. Une seule IA peut en générer des millions identiques (ou même différentes d'ailleurs)

Mais là ou tout s'emballe c'est que ça marche aussi dans l'autre sens. Là ou il est foncièrement difficile de bidouiller notre code génétique, rien n'empècherai une IA de se fusionner avec une autre, prendre ce qui l'intéresse , ce qui semble performant... Selon la façon dont serai concue sa mémoire un IA pourrai très bien se dupliquer, avec un objectif précis pour chaque copie puis tout les monde refusionne à la fin et partage les informations et progrès (Un peu Kage Bushin no Jutsu d'un Naruto pour les connaisseurs )

Pour conclure mes quelques arguments, je pense qu'il est important de ne pas mélanger:
  • intélligence humaine et intelligence: le point commun est la capacité de raisonnement, d'apprentissage, d'autoanalyse mais rien n'oblige une intelligence à avoir un mode de fonctionnement humain
  • Intelligence Artificielle / robot humanoïde / robot tout court d'ailleurs : Rien n'oblige à ce que l'intelligence ai un support électronique ou informatique ou humanoïde. Une IA pourrait tout aussi bien être un programme dans un supercalculateur, un réseau de neurones hardware...
  • Intelligence artificielle/ Intelligence parfaite: Par définition un IA n'est qu'une intelligence ...artificielle pas forcement parfaite, ni rationelle, ni logique.


En espérant aporter ma pierre au débat
2  0 
Avatar de oodbae_adriano
Membre régulier https://www.developpez.com
Le 23/05/2014 à 12:51
les lois d'Asimov
Acutellement, les lois d'Asimov ne sont integrees a aucune norme de production de robot. La preuve en est que les drones les plus avances sont les drone militaires, qui possedent une IA, et donc la fonction premiere est de blesser/tuer des humains.
l'IA un jour oui, mais pas de notre temps
les IA actuelles sont debiles
Depuis quand l'industrie attend elle qu'un systeme soit parfait pour le vendre et le commercialiser, sans egard pour les consequences sur les hommes ? on le sait deja pour l'industrie pharmaceutique.
alors que faire ? se suicider tout de suite?
On pourrait commencer par reconnaitre aux robots dotes d'IA une existence juridique. Ca permettrait de legiferer pour empecher le developpement de tous les robots possibles. Une IA doit repondre a certaines normes. Un programme qui possede certaines caracteristiques est une IA donc doit repondre aux normes en question. D'une pierre deux coups, ca fournira un cadre pour la regulation des collectes de donnees (#NSA etc) car on se cache derriere l'idee que les algorithmes de google et Cie sont trop stupides pour etre consideres comme de l'IA. On se cache derriere le petit doigt pour proteger nos emplois d'informaticien. Est-ce que les Smartphones sont dotes d'IA ? en tout cas, "smart" signifie "intelligent" et s'adapte a la personnalite de son possesseur.
2  0 
Avatar de Kelakhai
Futur Membre du Club https://www.developpez.com
Le 23/05/2014 à 13:49
Bon, en résumé de ce que j'ai commencé à écrire il y a environ trois quart d'heure pour expliquer mon point de vue.
- Robots intelligents = Aucune menace, techniquement a notre portée.
- Robots conscients = Menace dépendante de la raison qu'on lui donnera pour sa création et de ses directives principales.

J'avais aussi fait un laïus sur ce que les émotions et sentiments ne sont que des réponses logiques, l'expression de besoins et de dépendances par exemple pour l'amour.
Et que l'expression d'un besoin n'est absolument pas hors de portée d'une machine consciente.

Voilà voilà, quel gâchis.
2  0