IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IBM dévoile son langage de programmation Corelet
Pour faire fonctionner les applications comme le cerveau humain sur ses puces cognitives

Le , par Cedric Chevalier

10PARTAGES

5  0 
IBM décide de quitter les sentiers battus empruntés en informatique en réalisant la simulation d'un nouveau type de puce qui n'est pas basée sur le modèle traditionnel de Von Neumann, dont s'inspirent largement les architectures d'ordinateurs actuelles.

Ladite puce calque son architecture et son fonctionnement sur celui du cerveau humain. Cette dernière sera donc compacte, moins gourmande en énergie et excellera dans les domaines ou un cerveau humain est compétent comme la reconnaissance faciale ou vocale.

Elle est composée de plusieurs unités « neurosynaptiques » (à ne surtout pas confondre avec l'équivalent biologique) regroupées en cœur, dont l'assemblage rappelle fortement l'agencement des neurones dans le cerveau humain.

Pour le Docteur Dharmendra S. Moda chercheur chez IBM, cette nouvelle architecture impose une nouvelle façon de programmer : « Architecture et programmation sont intimement liées. Par conséquent, avec notre nouvelle architecture, un nouveau paradigme de programmation doit être défini ». Fini les programmes constitués de suite d'instruction que doit exécuter un processeur.

Par la suite, le Docteur Dharmendra et son équipe ont développé un ensemble d'outils pour créer, déboguer et tester les applications conçues pour cette architecture inédite. C'est ainsi qu'un nouveau langage de programmation orienté objet baptisé Corelet a vu le jour. Pour simplifier le développement des applications pour la nouvelle architecture, des bibliothèques réutilisables ont été mises au point pour ce langage de programmation. Ces dernières regroupent en catégories les fonctionnalités offertes par les unités neurosynaptiques de la puce. C'est ainsi qu'on a des bibliothèques spécialisées dans les tâches de détection des contours, identification des couleurs, perception sonore, que le programmeur peut agencer pour créer des applications complexes.

[ame="http://www.youtube.com/watch?v=J69EJxUr8mw"]IBM[/ame]

Sources: IBM, Article IBM sur le langage Corelet

Et vous ?

La nouvelle architecture d'IBM représenterait-elle le futur ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de bonnotguillaume
Membre régulier https://www.developpez.com
Le 16/08/2013 à 17:07
La nouvelle architecture d'IBM représenterait-elle le futur ?
LE futur, non, mais il est fort probable qu'elle fasse partie du futur.

Le modèle de Von Neumann restera la pièce maîtresse de l'informatique, mais il sera renforcé par des unités de calcul basé sur de nouveaux paradigmes.
En vrac : quantique, biologique, neurosynaptique...

De toute façon, on en verra pas la couleur avant 20 ans, comme le reste

Maintenant que l'informatique classique est arrivée à maturité, les efforts vont pouvoir se reporter sur le développement de technologie alternatives. Technologies alternatives dont la plus part des bases ont été posées depuis longtemps, mais qui nécessitait des outils (technologiques, scientifiques) qui n'existaient pas à l'époque.

On continue d'avancer, c'est bon signe !
3  0 
Avatar de samouemouel
Futur Membre du Club https://www.developpez.com
Le 23/08/2013 à 12:10
LE futur, non, mais il est fort probable qu'elle fasse partie du futur.
De toute façon, on en verra pas la couleur avant 20 ans, comme le reste
Tout comme les composants en partie organique qui pourraient eux aussi se développer dans les années à venir même si cela prendra probablement encore plus de temps.
0  0 
Avatar de arkhamon
Membre éprouvé https://www.developpez.com
Le 23/08/2013 à 14:39
Rhââââââ enfin un sujet pour les visionnaires ! Cool !

@bonnotguillaume : pas sur que le modèle de Von Neuman reste la pierre angulaire de l'informatique, ou plutot de l'ordinateur. L'évolution a été telle ces 50 dernières années que je n'arrive même pas à savoir ce que ça va donner dans 10 ans.

Dans certains cas, le omdèle de VN montre ses limites, le dépasser permettrait peut être de faire tomber certaines barrières (genre les 7 problèmes pathématiques du concours machin...).

Par contre, pour moi, les évolutions des technologies (mémoires biologiques, ordinateurs quantiques...) ne sont qu'une étape de plus mais on reste toujours dans la même façon de penser. C'est juste que la puissance augmente, mais la "techno" ne bouge pas.
0  0 
Avatar de ifou64
Nouveau Candidat au Club https://www.developpez.com
Le 23/08/2013 à 22:19
Je pense que l'imitation du cerveau a deux aspects positifs

1) En fait je pense que le problème majeur des ordinateurs actuels est la difficulté à augmenter efficacité: les lois de physique freinent l'augmentation leur fréquence. La solution est d'effectuer du travail en parallèle. Le problème pour les ordinateurs travaillant en parallèle est d'avoir des programmes pouvant exploiter les taches en parallèle. Ou plus exactement d'organiser le travail en parallèle pour TOUS les programme. Le mode de fonctionnement du cerveau est quand à lui massivement parallèle. En fonctionnant de la sorte pour augmenter l'efficacité du cerveau une approche qui donne souvent de bon résultats (mais qui n'est pas la seule à mon avis) est d'augmenter sa taille. Ces considérations font qu'imiter le cerveau est une voie certaine (le cerveau humain existe et fonctionne) pour obtenir des ordinateurs ou l'on pourra augmenter l'efficacité.

2) dans le développement des applications l'interface homme machine sera plus "humaine" si elle fonctionne de la même manière que celle d'un humain. Je pense effectivement que certaines personnes critiqueront le fait que le distributeur automatique de billet soit redevenu un humain avec tous ses vices et vertus, mais nous pourrons y gagner sur le fait que nous pourrions avoir des réponses non programmées. Comme par exemple si je suis un collectionneur de billet et de pièces je pourrais lui demander si il possèdes des exemplaires qui m'intéressent.

Je pense que les ordinateurs futurs contiendront un mélange de processeurs traditionnels et imitant le cerveau
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/08/2013 à 22:54
Il ne faut pas mélanger structure et fonctionnalités : ce n'est pas parce qu'une puce est organisée comme un cerveau que tu retrouves les même fonctionnalités. Encore faut-il que ce soit utilisé de la même manière, et niveau compréhension de l'utilisation du cerveau il y a encore bien plus d'ignorance. De plus, il y a des tas de choses (comme les sentiments) dont on a une idée de ce qui est influencé (quelles zones du cerveau et avec quel signal chimique ou électrique), mais on n'a aucune idée du pourquoi (quel est le processus complet qui a amené à cette réaction).

C'est comme le génome : on a beau savoir ce qui est écrit, si on ne comprends pas les interactions des différents éléments on ne peut pas expliquer comment on crée un être vivant à partir de ce génome.

Une difficulté de taille avec la parallélisation est la logique entre taches parallèles : pour pouvoir faire 2 choses en même temps, il ne faut pas que l'un ait besoin que l'autre soit fini pour s'exécuter. Par exemple, si je distribue (1+3)*(2-4) je peux faire en parallèle les deux parenthèses mais le produit au centre devra attendre le résultat des deux avant de pouvoir faire son calcul (je simplifie, on peut faire des calculs à l'avance et choisir le bon quand on a les résultats, mais les inconvénients sont différents). Si on est capable de voir pourquoi ce calcul se découpe de la sorte, c'est parce qu'on connait la sémantique à placer derrière (les parenthèses sont prioritaires). Pour des tâches complexes, de la même manière, il faut être capable d'identifier quelles opérations dépendent du résultat d'autres opérations, et ça ça demande une très grosse réflexion pour paralléliser soit-même la chose.

Je ne doute pas que le futur passe par la parallélisation (en fait on y est déjà), mais de là à dire que le programmeur va faire des applications en utilisant lui-même cette possibilité, j'y crois pas un instant. De la même manière que de l'assembleur on est arrivé à des langages de haut niveau qui nous permettent d'abstraire l'architecture de VN, on aura droit à des langages de programmation bas niveau sur ces architectures "brain-like" pour avoir ensuite des langages plus haut niveau qui arriveront au même genre de fonctionnalités qu'on a aujourd'hui.

À part les pionnier du domaine qui programmeront avec l'assembleur de ces architectures, on cherchera très rapidement à avoir quelque chose de plus facile à utiliser. On a déjà fait le chemin avec VN, on le fera encore plus vite avec cette architecture là. On ne comprends pas déjà comment le cerveau fonctionne, alors comment le programmeur arriverait à comprendre comment son programme peut s'appliquer à un cerveau électronique ?

Par contre, arpenter ce chemin d'abstraction sur ces architectures devrait pouvoir aider à comprendre un peu mieux comme fonctionne le cerveau, en voyant ce qui est faisable (et comment) et ce qui ne l'est pas.
0  0