IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Japon annonce le projet de construction d'un supercalculateur d'une puissance de 130 pétaflops
Pourra-t-il se hisser à la tête dans ce domaine ?

Le , par Olivier Famien

237PARTAGES

4  0 
La Chine a construit un supercalculateur ayant un pic de performance de 124 petaflops
Sunway TaihuLight est le plus puissant superordinateur au monde

Sunway TaihuLight est le supercalculateur le plus puissant au monde, selon le TOP500. Pour rappel, un supercalculateur est, comme son nom l’indique, un ordinateur qui possède de grandes performances pour les calculs. Il est utilisé dans le domaine de la recherche, notamment en astrophysique et dans la recherche nucléaire.


Chaque semestre, le TOP500 dresse la liste des superordinateurs les plus puissants au monde. Pour ce faire, le superordinateur est soumis à un test de performance, le Linpack, qui consiste à résoudre un système linéaire dense de n équations à n inconnues. On mesure ainsi le temps qu’il a mis pour la résolution des équations. On calcule ensuite la performance en réalisant une division du nombre d’opérations par la durée du calcul.

Dans sa dernière liste, c’est un superordinateur chinois du nom de Tianhe-2, ayant une puissance maximale de 54 petaflops, qui est arrivé en tête de liste.
La Chine rempile encore avec un nouveau supercalculateur, encore plus puissant ayant un pic de performance de 124 petaflops. Installé à Wixu, il sera utilisé pour les recherches sur le climat, les sciences de la vie, la modélisation de la terre ainsi que l’analyse des données. Le supercalculateur Sunway TaihuLight a été conçu par le centre national chinois de recherche sur l’ingénierie des systèmes à hautes performances. Il possède 40 960 nœuds, utilisant chacun un processeur SW26010, pour un total de 10 649 600 cœurs de calcul. Il a une capacité de stockage de 1,3 PB. Il utilise des processeurs Sunway SW26010 260C 1.45GHz.

Ce nouveau superordinateur chinois consomme seulement 15,3 MW, soit 6,05 GFlops/Watt. Il fait ainsi partie du top 3 des supercalculateurs ayant une bonne performance énergétique. À la première place, on trouve le supercalculateur japonais Shoubu qui consomme 6,67 Flops/Watt.

Dans la précédente liste, c’est le superordinateur chinois Tianhe-2 qui a été considéré comme étant le supercalculateur le plus puissant au monde. Mais sa puissance est désormais en dessous de celle de Sunway TaihuLight. Ce dernier utilise, par ailleurs, des processeurs 100 % chinois. C’est une manière pour la Chine de montrer qu’elle peut se passer des technologies extérieures.

Pour l’histoire, les Chinois ont voulu améliorer la performance du supercalculateur Tianhe-2 qui utilise des processeurs Intel. Cependant, les autorités américaines n’ont pas donné à Intel l’autorisation d’exporter ses processeurs vers la Chine. Les États-Unis ont évoqué une menace à la sécurité nationale. Selon eux, les Chinois conçoivent des superordinateurs à des fins de développement d’armes nucléaires. Mais au-delà de ces raisons, on peut aussi expliquer cette décision par le fait que la Chine a beaucoup progressé dans ce domaine, dépassant même les États-Unis. Pour preuve, la première et la deuxième place des superordinateurs les plus puissants au monde reviennent à la Chine avec le Sunway TaihuLight et le Tianhe-2. Les États-Unis, eux, voient deux de leurs superordinateurs en 3e et 4e places, il s’agit du Titan, un système utilisant des processeurs NVDIA et ayant un pic de performance de 27 petaflops et de Sequoia, tournant avec des processeurs IBM et possédant un pic de performance de 20 petaflops. Par ailleurs, la Chine est le premier pays ayant plusieurs supercalculateurs puissants. Dans le TOP500, elle enregistre 167 superordinateurs, dépassant ainsi les États-Unis qui n’enregistrent plus que 165 supercalculateurs alors que dans la précédente liste, il y avait 199 systèmes américains. Face à cette situation et pour retrouver sa suprématie dans ce domaine, il s’avère actuellement que les États-Unis se penchent sur des pistes pour la conception d’un exaflops.

À part la Chine et les États-Unis, d’autres pays s’illustrent aussi dans ce classement. Il y a notamment le Japon avec son superordinateur K, tournant avec des processeurs Fujitsu, qui est placé à la 5e place. On retrouve aussi la Suisse avec son supercalculateur Piz Daint, en huitième position. Il est utilisé par le Swiss National Supercomputing Centre, à Lugano et est considéré comme le superordinateur le plus puissant d’Europe. La France arrive en 11e place avec son supercalculateur Pangea, utilisant des processeurs Xeon E5-2670/ E5-2680v3 12C 2.5GHz, ayant un pic de performance de 4 petaflops. Il est utilisé par Total Exploration Production.

Source : Top500

Et vous ?

Qu’en pensez-vous ?

Voir aussi :

[HPC] Quelles pistes pour les superordinateurs d'un exaflops ? Un ingénieur du DoE propose trois pistes pour limiter la consommation d'énergie
Vous avez lu gratuitement 673 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 28/11/2016 à 13:12
Il faut intégrer comme paramètre les ressources énergétique constituant un frein au gain de puissance de calcul.
2  0 
Avatar de DelphiManiac
Membre émérite https://www.developpez.com
Le 28/11/2016 à 0:27
Tout ça pour avoir comme réponse : 0010 1010 !!
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 26/11/2016 à 18:27
Il existe un classement semestriel où les chinois ont pris les premières places en étant loin devant. Le premier avec le Thiane 3 est à plus de 93 petaflops, la second dépasse à peine les 30 petaflops.

Ensuite arrive les américains qui mouline à moins de 20 peta. Atos avec Bull dépasse juste les 10 petaflops mais il faut savoir que, 5 ans auparavant, nous étions second après les américains à relever le défi avec le concours du CEA et INRIA à créer un cluster de calcul à 1 peta pour modéliser les armes atomiques de demain... défi lancé sous l'impulsion de Chirac en 1997 suite à l'arrêt des essais nucléaires dans le Pacifique. Non seulement, les puces doivent être parfaitement coordonnées et optimisées, mais l'OS, en l'occurence GNU/linux dans 498 cas sur les 498 premiers doit tourner comme une horloge suisse.

Pourquoi cette course à la puissance démesurée ? L'IA dans le domaine scientifique mais aussi les immenses entrepôts de données à traiter. Et pas seulement par la NSA.
Le marché est à venir dans les 10 prochaines années. Donc tous les pays disposant de ressources dans le domaine se lancent à l'assaut non pas pour le conquérir, mais pour conserver son indépendance.
Car les données certes il faut les protéger et en prendre grand soin. Mais la vitesse de leur traitement sera cruciale.
0  0 
Avatar de earhater
Membre éprouvé https://www.developpez.com
Le 26/11/2016 à 19:19
Je salue le commentaire de mon VDD, à la première lecture de l'article je me suis dit que c'était juste une course de celui qui a la plus grosse mais quand on comprend les enjeux politique derrière ça va mieux.

Par contre qu'en est-t-il des ordinateurs quantiques ?
0  0 
Avatar de KEKE93
Membre éclairé https://www.developpez.com
Le 26/11/2016 à 20:16
En effet, l'exascale, c'est un peu le saint gral, car c'est en gros l'échelle qu'il faut pour modéliser tout un cerveau humain et donc comprendre toutes les maladies neuro-psychiatres qui s'y affèrent...
Le cerveau humain est encore la seule partie du corps où on peut baptiser par des noms des zones mal connues...
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 27/11/2016 à 5:36
Citation Envoyé par dourouc05 Voir le message
En présentant une architecture très simplifiée (http://www.nextplatform.com/2016/06/...supercomputer/). Je ne sais pas ce qu'il faut en penser : soit ils ont choisi la simplicité parce que ça leur donne d'énormes avantages (plus de transistors disponibles pour du calcul), soit parce qu'ils n'ont pas assez d'expérience pour faire mieux (pas de cache, mémoire DDR3, par exemple). À mon avis, on est entre les deux : leur machine excelle pour l'algèbre linéaire pure (avec une efficacité énergétique de six gigaflops par watt, trois fois plus que les superordinateurs habituels), mais tombe des nues dès qu'on lui demande de déplacer des données en mémoire (voir la ligne HPCG). Elle ne sera donc pas forcément plus rapide que Tianhe-2, selon ce qu'on lui demande.
1- techniquement la gestion de la mémoire reste le plus complexe à gérer
2- Les CPU servant de chef d'orchestre aux GPU/coprocessors
3- les composants utilisés doivent être fiables donc pas nécessairement de dernière génération
4- il s'agit de technologies de pointe au même titre que la Formule 1

Le TIANHE dispose du meilleur rendement. Après question coût en $$$...
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 27/11/2016 à 14:17
Citation Envoyé par sazearte Voir le message

C'est à dire ? tu parle des temps d’accès ou du partage de la mémoire, ou d'autre chose... ?
Pour le 1er de toute façon on peut pas y faire grand chose aujourd'hui, la ram c'est lent
Pour le 2ieme les outils ont beaucoup évoluer, tous les OS permette (assez simplement) le partage de mémoire entre les nœuds de calcules, et avec cuda on peut maintenant unifier la mémoire cpu et gpu par exemple, après à charge au dev de placer certains variables efficacement.
Optimiser les temps d'accés en fonction du timing des résultats à apporter. Tous les µproc travaillent en temps masqué comme on dit dans l'industrie. C'est à dire, chacun fait sa tache allouée. A l'époque où j'en ai discuté lors d'une formation accélérée, ça n'existait pas. Et le plus gros du travail à faire était de créer des "await/release" à gogo pour coordonner les calculs. A cette vitesse là, la RAM sert juste à stocker les résultats temporaires. Tout se fait dans le cache. Et les accés à la mémoire partagée à gérer pour éviter de retourner un résultat faux ou pire était le principal obstacle.
0  0 
Avatar de patmaba
Membre actif https://www.developpez.com
Le 28/11/2016 à 9:30
J'ai une question pour les responsables Developpez.com.
L'AI est un sujet de plus en plus en bogue en ce moment. Surtout avec le Big data.
Est-ce que Developpez.com prévoit une future section AI ?

Bien à vous
0  0 
Avatar de
https://www.developpez.com
Le 28/11/2016 à 11:16
Citation Envoyé par sazearte Voir le message

C'est à dire ? tu parle des temps d’accès ou du partage de la mémoire, ou d'autre chose... ?
Les analyses préalables de complexités des algorithmes a un si bas niveau ?

J'ose même pas pensé au ratio complexité / efficacité.

Citation Envoyé par marsupial Voir le message

2- Les CPU servant de chef d'orchestre aux GPU/coprocessors
C'est comme pour les chercheurs, il faut réservé du temps et ressources sur une période données. Cela dit les périodes avec un début mais pas de fin prédéfini sont quelques tolérés.
0  0 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 28/11/2016 à 14:31
Citation Envoyé par patmaba Voir le message
Est-ce que Developpez.com prévoit une future section AI ?
Le site ne se construit que par sa communauté : si tu as des choses à proposer pour une telle rubrique, n'hésite pas . (Il y a déjà un forum, il faut y amener de l'activité, des gens qui posent des questions et y répondent ; du contenu, aussi, notamment avec des tutoriels, des FAQ, des traductions.)
0  0