Developpez.com

Le Club des Développeurs et IT Pro

Des chercheurs conçoivent un processeur de 25 cœurs

Que les centres informatiques pourraient adapter pour connecter un demi-milliard de cœurs

Le 2016-08-26 01:43:25, par Olivier Famien, Chroniqueur Actualités
Avec l’ère des technologies de l’information, les données produites et consommées quotidiennement par les entreprises et les individus atteignent des tailles astronomiques. Alors qu’il y a quelques années, les volumes de données en téraoctets étaient réservés aux entreprises, aujourd’hui les données des particuliers atteignent facilement ces chiffres.

Du côté des entreprises, les données traitées se mesurent facilement en exa, zetta ou même yottaoctets pour les plus grandes. Pour traiter toutes ces quantités de données et faire face aux enjeux du cloud, les entreprises ont besoin d’utiliser des technologies à la hauteur des quantités énormes de données traitées.

Par ailleurs, alors que la croissance de ces données se fait de manière exponentielle, les centres de données et autres grosses structures de traitement des données ont nécessairement besoin d’accroître leurs ressources matérielles pour traiter efficacement les informations collectées.

Aussi, pour aider ces grandes entreprises de traitement de données dans leurs activités, les chercheurs de l’université de Princeton viennent d’annoncer la mise au point d’une puce dotée de 25 cœurs nommée Piton.

Piton est un processeur de type OpenSPARC modifié, composé de 25 cœurs sur lesquels sont repartis pas moins de 460 millions de transistors gravés en 32 nanomètres avec une fréquence d’horloge de 1 GHz. La conception a été faite par les chercheurs de Princeton tandis que sa fabrication a été confiée à l’équipe d’IBM.


La particularité de Piton est que selon les concepteurs, il possède une architecture qui peut facilement être mise à l’échelle. Selon David Wentzlaff, l’un des chercheurs à la base de ce projet, en se basant sur cette spécificité, il est possible d’aligner des milliers de cœurs sur la même puce et connecter un demi-milliard de cœurs dans un centre de données.

Wentzlaff souligne que pour arriver à une telle prouesse avec Piton, ils ont dû s’asseoir et repenser l’architecture de l’ordinateur « ;afin de concevoir une puce spécialement pour les centres de données et le cloud ;». En utilisant cette puce, ces entités pourront accroître significativement la vitesse de traitement des données tout en réduisant les besoins en énergie.

Pour y parvenir, les chercheurs expliquent que Piton comporte en son sein, une mémoire cache dont les zones peuvent être allouées à des applications dédiées contrairement aux processeurs courants dont la mémoire cache est partagée entre tous les cœurs. Cela permet d’accroître efficacement l’accès aux informations. Et lorsqu’on étend l’architecture de ces processeurs, les performances du système qui les utilise se trouveront hautement améliorées.

Selon les chercheurs, « ;ces améliorations pourraient être mises en œuvre tout en gardant les coûts en conformité avec les normes de fabrication actuelles ;». Et « ;pour accélérer encore plus en avant les développements en s’appuyant et en étendant l’architecture de Piton, les chercheurs de Princeton ont rendu sa conception open source et donc disponible au public et à d’autres chercheurs ;».

Source : Princeton News

Et vous ?

Que pensez-vous de ce cette nouvelle puce ;?

Pourra-t-elle faire une percée dans le monde concurrentiel des processeurs ;?

Voir aussi

AMD prépare une nouvelle structure d'interconnexion entre processeurs pour le calcul de haute performance, focus sur les technologies ouvertes

Des chercheurs dévoilent un processeur à 1000 coeurs intégrés dans une seule puce aux circuits configurables
  Discussion forum
16 commentaires
  • ClaudeLELOUP
    Rédacteur/Modérateur
    Envoyé par tatatayoyoyo
    j'ai qu'un cœur et ça me suivit amplement

    OK... mais qu'est-ce qu'y a en dessous de ton grand chapeau ?
  • Jiji66
    Membre éprouvé
    Il n'y a plus qu'a inventer l'outil de developpement qui tirera parti du parallelisme massif.
    La fin du lien entre frequence et montee en puissance se confirme.
  • mrqs2crbs
    Membre averti
    Envoyé par Olivier Famien

    Avec l’ère des technologies de l’information, les données produites et consommées quotidiennement par les entreprises et les individus atteignent des tailles astronomiques. Alors qu’il y a quelques années, les volumes de données en téraoctets étaient réservés aux entreprises, aujourd’hui les données des particuliers atteignent facilement ces chiffres.

    Du côté des entreprises, les données traitées se mesurent facilement en exa, zetta ou même yottaoctets pour les plus grandes. Pour traiter toutes ces quantités de données et faire face aux enjeux du cloud, les entreprises ont besoin d’utiliser des technologies à la hauteur des quantités énormes de données traitées.
    puisque ça traite du big-data, j'en profite pour faire un peu de pub pour le dossier qu'Arte y consacre : BIG DATA I II III IV V

    On peut, notamment, y lire une interview de l'excellent Evgeny Morozov, qui change du ton habituel (un peu trop dithyrambique) des articles sur le big-data.

    Cordialement.
  • zobal
    Membre confirmé
    Envoyé par Jiji66
    Il n'y a plus qu'a inventer l'outil de developpement qui tirera parti du parallelisme massif.
    OpenMP existe depuis 1997 et permet de paralléliser une boucle avec une simple directive de compilation.

    Envoyé par Jiji66
    La fin du lien entre frequence et montee en puissance se confirme.
    Les fréquences des CPU n'augmentent quasiment plus depuis 10 ans. Actuellement, l'augmentation de puissance est permise grâce au parallélisme.
  • LSMetag
    Expert confirmé
    C'est peut-être HS, mais voilà ce que nos forces de l'ordre et services secrets devraient avoir, au lieu de vouloir affaiblir la sécurité des produits.
  • RyzenOC
    Inactif
    Ce n’est bien que pour certains calculs spécifiques, mais pour le grand public aucun intérêt...
    C'est un peu dommage que y'ait pas une révolution sur nos CPU, Intel nous enferme dans son archi (Quad) Core depuis 6ans, avec chaque année 5% de perf en plus...
    Et puis le jour où les applications exploiteront le multicore... toutes les IHM à ma connaissance sont monocore par exemple. Pour le web seul Servo semble être prometteur à voir ce que ça donnera.
  • abriotde
    Membre chevronné
    Pour revenir au sujet. Ce qui fait plaisir, c'est de voir que les processeur Open-Source prennent de la puissance et quittent un peu le stade de pure rêvent (même si l'on est encore loin de les voir diffuser et combattre a armes égal avec les produits commerciaux comme le fait Linux). Le projet OpenSparc est a mon sens le plus avancé et le mieux doté en soutiens des grandes multinational de l'informatique.
  • gros_bidule
    Membre régulier
    "Du côté des entreprises, les données traitées se mesurent facilement en exa, zetta ou même yottaoctets pour les plus grandes."
    Ca semble avant tout être un effet de mode, comme l'a été le "cloud" ou pire, le "web 2.0".
    Le bigdata, ça ne concerne pas beaucoup d'entreprises. Il n'y a (principalement) que des projets scientifiques et des mastodontes à la Google/Amazon/Wallmart/etc qui traitent des quantités massives de données. Le gros des boites ne dépassera jamais les quelques gigas de données
    Faire du sparql parce que c'est à la mode, c'est ridicule et contre-productif. Charge aux commerciaux et recruteurs (combien j'en ai rencontré qui ne jurent que par le big data sans même savoir de quoi ils parlent) de redescendre sur terre.
  • Jiji66
    Membre éprouvé
    Je viens de regarder la video et c'est stupefiant de voir la debauche de puissance necessaire pour lire et transferer un "Hello World" d'une RS232 a une autre.
  • CrankFlash
    Membre régulier
    Envoyé par ClaudeLELOUP
    OK... mais qu'est-ce qu'y a en dessous de ton grand chapeau ?
    C'est 'dredi, tout est permis