Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs conçoivent un processeur de 25 cœurs
Que les centres informatiques pourraient adapter pour connecter un demi-milliard de cœurs

Le , par Olivier Famien

0PARTAGES

10  0 
Avec l’ère des technologies de l’information, les données produites et consommées quotidiennement par les entreprises et les individus atteignent des tailles astronomiques. Alors qu’il y a quelques années, les volumes de données en téraoctets étaient réservés aux entreprises, aujourd’hui les données des particuliers atteignent facilement ces chiffres.

Du côté des entreprises, les données traitées se mesurent facilement en exa, zetta ou même yottaoctets pour les plus grandes. Pour traiter toutes ces quantités de données et faire face aux enjeux du cloud, les entreprises ont besoin d’utiliser des technologies à la hauteur des quantités énormes de données traitées.

Par ailleurs, alors que la croissance de ces données se fait de manière exponentielle, les centres de données et autres grosses structures de traitement des données ont nécessairement besoin d’accroître leurs ressources matérielles pour traiter efficacement les informations collectées.

Aussi, pour aider ces grandes entreprises de traitement de données dans leurs activités, les chercheurs de l’université de Princeton viennent d’annoncer la mise au point d’une puce dotée de 25 cœurs nommée Piton.

Piton est un processeur de type OpenSPARC modifié, composé de 25 cœurs sur lesquels sont repartis pas moins de 460 millions de transistors gravés en 32 nanomètres avec une fréquence d’horloge de 1 GHz. La conception a été faite par les chercheurs de Princeton tandis que sa fabrication a été confiée à l’équipe d’IBM.


La particularité de Piton est que selon les concepteurs, il possède une architecture qui peut facilement être mise à l’échelle. Selon David Wentzlaff, l’un des chercheurs à la base de ce projet, en se basant sur cette spécificité, il est possible d’aligner des milliers de cœurs sur la même puce et connecter un demi-milliard de cœurs dans un centre de données.

Wentzlaff souligne que pour arriver à une telle prouesse avec Piton, ils ont dû s’asseoir et repenser l’architecture de l’ordinateur « ;afin de concevoir une puce spécialement pour les centres de données et le cloud ;». En utilisant cette puce, ces entités pourront accroître significativement la vitesse de traitement des données tout en réduisant les besoins en énergie.

Pour y parvenir, les chercheurs expliquent que Piton comporte en son sein, une mémoire cache dont les zones peuvent être allouées à des applications dédiées contrairement aux processeurs courants dont la mémoire cache est partagée entre tous les cœurs. Cela permet d’accroître efficacement l’accès aux informations. Et lorsqu’on étend l’architecture de ces processeurs, les performances du système qui les utilise se trouveront hautement améliorées.

Selon les chercheurs, « ;ces améliorations pourraient être mises en œuvre tout en gardant les coûts en conformité avec les normes de fabrication actuelles ;». Et « ;pour accélérer encore plus en avant les développements en s’appuyant et en étendant l’architecture de Piton, les chercheurs de Princeton ont rendu sa conception open source et donc disponible au public et à d’autres chercheurs ;».

Source : Princeton News

Et vous ?

Que pensez-vous de ce cette nouvelle puce ;?

Pourra-t-elle faire une percée dans le monde concurrentiel des processeurs ;?

Voir aussi

AMD prépare une nouvelle structure d'interconnexion entre processeurs pour le calcul de haute performance, focus sur les technologies ouvertes

Des chercheurs dévoilent un processeur à 1000 coeurs intégrés dans une seule puce aux circuits configurables

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de ClaudeLELOUP
Rédacteur/Modérateur https://www.developpez.com
Le 26/08/2016 à 10:15
Citation Envoyé par tatatayoyoyo Voir le message
j'ai qu'un cœur et ça me suivit amplement

OK... mais qu'est-ce qu'y a en dessous de ton grand chapeau ?
12  0 
Avatar de Jiji66
Membre éprouvé https://www.developpez.com
Le 26/08/2016 à 10:22
Il n'y a plus qu'a inventer l'outil de developpement qui tirera parti du parallelisme massif.
La fin du lien entre frequence et montee en puissance se confirme.
7  0 
Avatar de mrqs2crbs
Membre averti https://www.developpez.com
Le 26/08/2016 à 10:50
Citation Envoyé par Olivier Famien Voir le message

Avec l’ère des technologies de l’information, les données produites et consommées quotidiennement par les entreprises et les individus atteignent des tailles astronomiques. Alors qu’il y a quelques années, les volumes de données en téraoctets étaient réservés aux entreprises, aujourd’hui les données des particuliers atteignent facilement ces chiffres.

Du côté des entreprises, les données traitées se mesurent facilement en exa, zetta ou même yottaoctets pour les plus grandes. Pour traiter toutes ces quantités de données et faire face aux enjeux du cloud, les entreprises ont besoin d’utiliser des technologies à la hauteur des quantités énormes de données traitées.
puisque ça traite du big-data, j'en profite pour faire un peu de pub pour le dossier qu'Arte y consacre : BIG DATA I II III IV V

On peut, notamment, y lire une interview de l'excellent Evgeny Morozov, qui change du ton habituel (un peu trop dithyrambique) des articles sur le big-data.

Cordialement.
6  0 
Avatar de zobal
Membre confirmé https://www.developpez.com
Le 26/08/2016 à 19:52
Citation Envoyé par Jiji66 Voir le message
Il n'y a plus qu'a inventer l'outil de developpement qui tirera parti du parallelisme massif.
OpenMP existe depuis 1997 et permet de paralléliser une boucle avec une simple directive de compilation.

Citation Envoyé par Jiji66 Voir le message
La fin du lien entre frequence et montee en puissance se confirme.
Les fréquences des CPU n'augmentent quasiment plus depuis 10 ans. Actuellement, l'augmentation de puissance est permise grâce au parallélisme.
5  1 
Avatar de LSMetag
Expert confirmé https://www.developpez.com
Le 26/08/2016 à 15:34
C'est peut-être HS, mais voilà ce que nos forces de l'ordre et services secrets devraient avoir, au lieu de vouloir affaiblir la sécurité des produits.
2  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 26/08/2016 à 18:10
Ce n’est bien que pour certains calculs spécifiques, mais pour le grand public aucun intérêt...
C'est un peu dommage que y'ait pas une révolution sur nos CPU, Intel nous enferme dans son archi (Quad) Core depuis 6ans, avec chaque année 5% de perf en plus...
Et puis le jour où les applications exploiteront le multicore... toutes les IHM à ma connaissance sont monocore par exemple. Pour le web seul Servo semble être prometteur à voir ce que ça donnera.
1  0 
Avatar de abriotde
Membre expérimenté https://www.developpez.com
Le 26/08/2016 à 18:12
Pour revenir au sujet. Ce qui fait plaisir, c'est de voir que les processeur Open-Source prennent de la puissance et quittent un peu le stade de pure rêvent (même si l'on est encore loin de les voir diffuser et combattre a armes égal avec les produits commerciaux comme le fait Linux). Le projet OpenSparc est a mon sens le plus avancé et le mieux doté en soutiens des grandes multinational de l'informatique.
1  0 
Avatar de gros_bidule
Membre du Club https://www.developpez.com
Le 26/08/2016 à 18:50
"Du côté des entreprises, les données traitées se mesurent facilement en exa, zetta ou même yottaoctets pour les plus grandes."
Ca semble avant tout être un effet de mode, comme l'a été le "cloud" ou pire, le "web 2.0".
Le bigdata, ça ne concerne pas beaucoup d'entreprises. Il n'y a (principalement) que des projets scientifiques et des mastodontes à la Google/Amazon/Wallmart/etc qui traitent des quantités massives de données. Le gros des boites ne dépassera jamais les quelques gigas de données
Faire du sparql parce que c'est à la mode, c'est ridicule et contre-productif. Charge aux commerciaux et recruteurs (combien j'en ai rencontré qui ne jurent que par le big data sans même savoir de quoi ils parlent) de redescendre sur terre.
2  1 
Avatar de Jiji66
Membre éprouvé https://www.developpez.com
Le 26/08/2016 à 10:27
Je viens de regarder la video et c'est stupefiant de voir la debauche de puissance necessaire pour lire et transferer un "Hello World" d'une RS232 a une autre.
0  0 
Avatar de CrankFlash
Membre régulier https://www.developpez.com
Le 26/08/2016 à 11:33
Citation Envoyé par ClaudeLELOUP Voir le message
OK... mais qu'est-ce qu'y a en dessous de ton grand chapeau ?
C'est 'dredi, tout est permis
1  1