Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'ordinateur de demain apprendra de ses erreurs
Des chercheurs présentent une nouvelle génération de puces « intelligentes »

Le , par Stéphane le calme

23PARTAGES

5  0 
Larry Smarr, astrophysicien qui dirige l'institut californien des technologies des télécommunications et de l'information, voudrait révolutionner le monde de la technologie avec une nouvelle génération de puces. Leur fonctionnement est en grande partie calqué sur celui du système nerveux biologique, en particulier la façon dont les neurones réagissent aux stimuli et s'interconnectent pour interpréter l'information.

Avec cette nouvelle approche, les chercheurs espèrent qu'à l'instar de l'homme les ordinateurs soient capables d'apprendre de leurs erreurs. « Nous passons de la conception de systèmes informatiques à quelque chose qui a beaucoup à voir avec de l’informatique biologique » a expliqué Smarr dans une interview accordée au NYT.

Jusqu'à présent, le CPU de l'ordinateur a été conçu pour un traitement en binaire de l'information. Les nouveaux processeurs, qui restent des puces en silicium, sont connectés entre eux afin de se comporter comme des synapses. Ils sont appelés processeurs neuromorphiques parce qu'ils forment des groupes de « neurones ». « Les connexions entre ces puces sont « sous-pesées » en fonction des corrélations de données que les processeurs ont déjà « appris ». » affirme Smarr. Par la suite, ces éléments sont modifiés en flux de données dans la puce. Un signal sera alors généré et va se propager à d'autres composants et, en réaction, changer en conséquence la programmation des prochaines actions. Ce qui revient à dire que cette évolution programme les prochaines actions du « cerveau informatique » comme les « informations modifient les actions et pensées humaines ».

Ces nouvelles puces pourraient ainsi tolérer une erreur de programmation, humaine ou matérielle, et ainsi éviter les contrariétés dues à l'usage intensif de l'informatique comme les plantages. Les premiers processeurs, capables d'apprendre des erreurs, seront commercialisés au courant de l'année 2014. Précisons néanmoins que leurs capacités resteront limitées et ils consommeront beaucoup d'énergie.

Dans les prochaines années, cette approche devrait aboutir à la création d’une nouvelle génération d’intelligence artificielle qui devrait effectuer des tâches que l'homme fait en général de manière aisée comme voir, parler, écouter, se déplacer, manipuler et contrôler des objets. De telles avancées pourraient profondément changer la reconnaissance vocale ou faciale.

Mais les américains ne sont pas les seuls. Une équipe de chercheurs du Tokyo's Institute of Industrial Science travaille elle aussi au développement d'un concept appelé neuro-computer ; un ordinateur basé sur le fonctionnement des cellules du cerveau humain. L'objectif de l'équipe est de créer des fonctions semblables à celles du cerveau en connectant plusieurs circuits électriques pour former un réseau de neurones.

La puce électronique développée mesure 2cm carré. Dans son cœur, un circuit intégré spécialement conçu par l'équipe, composé de transistors, de capacités et de circuits analogiques. Contrairement aux circuits digitaux qui traitent les signaux électriques comme des états 0 ou 1, les circuits analogiques les traitent en continu en fonction de leur puissance. L'amplitude du signal de sortie de la puce électronique peut varier en fonction de l'entrée. Ces circuits permettent ainsi un traitement du signal se rapprochant de celui effectué par les neurones dans notre cerveau.

Pour le professeur Takashi Kohno, qui dirige l'équipe, si leurs travaux aboutissent comme ils l'espèrent, cela permettra d'avancer sur la compréhension des mécanismes du cerveau et, ainsi, comprendre les émotions et pouvoir traiter les maladies comme la dépression.

Source : NYT

Et vous ?

Qu'en pensez-vous ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Uranne-jimmy
Membre expérimenté https://www.developpez.com
Le 03/01/2014 à 9:22
Citation Envoyé par nirgal76 Voir le message
Calquer sur le cerveau humain...mince, il va refuser de bosser plus de 35H, va réclamer des congés, une prime dès qu'il se met à bosser (le salaire, c'est juste pour être présent quoi...) et va manifester dans la rue parcequ'il sera pas content (mais sans vraiment savoir pourquoi la plupart du temps).
Non ça c'est juste nous, les français.
C'est incroyable en effet, je vois plus l'avancé du système du point de vu biologique, on est en train de créer les premiers modèles qui permettront les études in silico, adieu les comité d'éthique. Bon on en est encore loin, mais la chose avance, à grand pas comme toujours.
1  0 
Avatar de Tackedowno-sama
Membre confirmé https://www.developpez.com
Le 03/01/2014 à 10:07
Il suffit de regarder H2G2 ou Futurama pour comprendre ce que donnerait un ordinateur dépressif.

Blague à part, la réalité se rapprochant de nouveau de la fiction, cela soulève des questions déjà posées par le cinéma, dans mon cas ces avancées technologiques m'impressionne et me rends impatient.

La seconde révolution informatique et robotique approche plus rapidement que prévu.

J'ai hâte de pouvoir débattre avec mon ordinateur.
1  0 
Avatar de psykokarl
Membre confirmé https://www.developpez.com
Le 03/01/2014 à 22:04
Avant de pouvoir apprendre de ses erreurs, il faut comprendre ce qu'est une erreur.
Pour comprendre ce qu'est une erreur, il faut savoir se définir un but.
Comment définit on le but d'un ordinateur ? En le programmant si possible pour qu'il accomplir sa tache de manière efficiente c'est à dire sans erreurs.

Après un ordinateur peut être programmé au niveau logiciel ou au niveau matériel.
1  0 
Avatar de Grimly
Membre averti https://www.developpez.com
Le 03/01/2014 à 15:23
Utiliser les réseaux de neurones au niveau d'un processeur ? C'est intéressant tout ça .

Bon, après il faut aussi lui apprendre comment voir, ce qu'il doit interpréter (il faut pouvoir donner les premières pondérations), tout en restant dans la limitation du système neuronal mis à disposition par le processeur.
0  0 
Avatar de Uranne-jimmy
Membre expérimenté https://www.developpez.com
Le 06/01/2014 à 9:19
Pour cette question, je vois plus une question d'adaptation. Dire "apprendre de ces erreurs", c'est plus un raccourci qui convient au titre d'un article. Je vois assez bien un ordinateur capable de comprendre qu'au bout de 5 ou 6 fois ou j'orthographie à ma façon un mot, ce soit un mot que je souhaite, sans que je lui demande. Un ordinateur qui quand je demande d'ouvrir de façon répété répertoire sur répertoire finisse par comprendre que quand je demande le dossier musique, je veux celui du DD secondaire. Un pc qui comprend aussi quand il y a un crash pourquoi il a eu lieu, et se modifie en fonction, mais là c'est soit de la science fiction, soit une connexion permanente à un système de gestion externe, je vois mal comment on peut faire autrement.

Pour ce qui est d'un réseau synaptique comme modèle, il permet si c'est bien fait de modifier non pas le code mais le chemin de circulation des données, favoriser certains, créer des systèmes portes (équivalent de rajouter une porte logique NON qui agit uniquement sur événement ?). Je vois tout de même plus une avancé dans la recherche biologique et sur la mémoire vive et brute, qui, part un modèle copiant le cerveau, devrait être super efficace.
0  0 
Avatar de AdHoc
Membre actif https://www.developpez.com
Le 09/01/2014 à 18:21
Combien de temps de tels ordinateurs vont mettre à identifier et à éliminer la source principale des dysfonctionnements et des problèmes?
0  0 
Avatar de fabphil1
Candidat au Club https://www.developpez.com
Le 10/01/2014 à 12:57
S'il s'agit de la mise en œuvre de réseaux neuronaux sur du silicium ou autre, en en parle depuis déjà une dizaine d'années et plus dans le domaine de l'intelligence artificielle, de l'apprentissage etc...
0  0 
Avatar de abelar_s
Membre actif https://www.developpez.com
Le 10/01/2014 à 20:48
Les réseaux de neurones, ça n'est pas franchement nouveau.
Pourtant, est-ce qu'on en a déjà partout autour de nous ?
Très peu, donc je ne pense pas que c'est la puce qui va changer le monde.

Par contre, depuis quelques années, on a deux ou trois applications très intéressantes, je pense à l'entrée utilisateur dans les smartphones : clavier avec système prédictif, et reconnaissance vocale, qui en plus apprennent avec l'usage.

Bref, si d'autres usages du style entrent dans les usages et peuvent bénéficier d'une telle puce, avec plaisir, on en profitera plus facilement
0  0 
Avatar de SKZ81
Membre habitué https://www.developpez.com
Le 14/01/2014 à 14:26
Faut pas s'enflammer... On fait tout ça depuis des (dizaines) d'années dans les labos de recherche informatique... Mais de manière logicielle.
Je parle pas des réseaux de neurones classiques comme ceux sur lesquels sont basé le "bien connu" perceptrons, mais des neurones impulsionnels (spiking neurons) qui simule plus précisément les processus biologiques : renforcement ou affaiblissement de la connectivité des synapses virtuelles en fonction du timing des impulsions par rapport à l'activité du neurone post synaptique.
Voir "l'algorithme" Spike Timing Dependent Plasticity pour plus d'infos.

C'est souvent très dur de mettre en place une structure qui fait effectivement quelque chose, il suffit pas de juxtaposer des neurones pour qu'en émerge une intelligence supérieure...

Là ils s'agit "juste" de puces qui offre une "accélération matérielle" à des applications déjà connu, car la simulation de tel réseaux sur des processeurs "classiques" relativement séquentiels, là où les réseaux neuronaux sont MASSIVEMENT parrallèles, prend soit un temps très long, soit consomme énormément de ressource.

Ca ouvre la porte à des application temps réél sur des modèles qui sont déjà validés, comme effectivement la vision robotique, etc... Basés sur les réseaux neuronaux, au lieu des autres algos classiquement utilisés pour ce type d'application.

Bon je simplifie un peu, mais quand je lis les fantasmes irréalistes des commentaires antérieurs, c'est une envie irrépressible
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 15/01/2014 à 14:38
Citation Envoyé par Dumbeldor Voir le message
C'est incroyable !
Mais perso sa me fait un peu peur !
Une peur vieille de l'humanité, la peur que la technologie prennent le dessu fasse au homme.

Car si nous créons des machines capable d'avoir une intelligence artificiel et donc potentiellement d'avoir une "conscience" elle est donc capable de faire des choses qui ne sont pas "prévu". Mais bon sa c'est un fantasme vu et revu dans beaucoup de film.
Lol, t'as pas besoin de cette peur pour qu'un PC fasse des choses imprévues : les bugs, on en a depuis toujours, et non seulement ce sont des imprévus, mais des imprévus néfastes (on pourrait avoir de bonnes surprises aussi {^_^}).

Quand à ce qu'un système artificiel prenne le dessus sur l'homme... pareil. Si on fait des systèmes artificiels, c'est pour nous aider là où on n'est pas bon. Donc il suffit de choisir la bonne perspective et tu peux toujours dire qu'une machine est supérieure à l'homme. Maintenant, on ne peut pas être bon partout, ou "There is no free lunch", comme on dit.
0  0