IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les États-Unis se lancent dans un projet de construction d'un supercalculateur de 200 petaflops
Qui devrait être livré en 2018

Le , par Miary

267PARTAGES

6  0 
Dans l’univers des supercalculateurs, la Chine commence à dominer. Pour preuve c’est un supercalculateur chinois du nom de Sunway TaihuLight qui est en tête de liste du Top500. Les Chinois ont aussi réussi à placer 167 machines contre 165 pour les États-Unis dans cette liste. Mais les Américains ne s’avouent pas vaincus et annoncent qu’un supercalculateur, Summit, ayant une performance pouvant dépasser les 200 petaflops, sera opérationnel en 2018.

C’est le laboratoire national Oak Ridge, du département américain de l’énergie, qui développe ce puissant supercalculateur. Summit sera utilisé pour renforcer les recherches dans de nombreux domaines de la science et de l’ingénierie, notamment dans les recherches en biocarburants, en stockage d’énergie et en énergie de fusion.

En atteignant un pic de performance de plus de 200 petaflops, Summit sera le plus puissant supercalculateur du monde. Pour atteindre une telle performance, cette machine possède 3400 nœuds et utilise une architecture hybride, combinant des processeurs IBM Power9 et NVIDIA Volta.

En termes de transfert de données entre les nœuds, Summit utilise la solution de bout en bout EDR InfiniBand de Mellanox, qui permet de réaliser un transfert de 23 Go/s entre les nœuds. Pour éviter la congestion de données, Summit utilise une topologie de réseau hiérarchique. Dans ce type de réseau, le sommet de haut niveau est connecté à plusieurs nœuds de niveau inférieur, dans la hiérarchie. Par ailleurs, les nœuds peuvent être connectés à plusieurs nœuds de niveau inférieur.

Pour le stockage des données, il utilise le système de fichiers GPFS, General Parallel File System, une technologie conçue par IBM pour stocker les données dont le volume dépasse le pétaoctet. Il se sert aussi du système de stockage de masse à hautes performances HPSS. Cette technologie développée par OLCF peut stocker un grand volume de données.

Par rapport à Titan, le premier supercalculateur américain actuellement, le troisième dans la liste TOP500, Summit est cinq fois plus puissant. Il faut savoir qu'ils ont abandonné le processeur AMD Opteron pour le processeur IBM Power9, plus puissant.


La course pour le plus puissant supercalculateur fait rage entre les États-Unis et la Chine. Il faut dire que la Chine a vite rattrapé son retard dans ce domaine et s’est même affranchie de la technologie américaine, en n’utilisant que des processeurs 100 % chinois pour le Sunway TaihuLight, le plus puissant superordinateur à l’heure actuelle.

Source : Oak Ridge National Laboratory

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

La Chine a construit un supercalculateur ayant un pic de performance de 124 petaflops, Sunway TaihuLight est le plus puissant superordinateur au monde

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 28/11/2016 à 13:12
Il faut intégrer comme paramètre les ressources énergétique constituant un frein au gain de puissance de calcul.
2  0 
Avatar de Carhiboux
Expert éminent sénior https://www.developpez.com
Le 23/06/2016 à 15:46
ET pour les traitements de masse de la NSA, ils font comment? ils sont dans le classement, les supercalculateurs de toutes ces agences qui veulent notre bien?
1  0 
Avatar de DelphiManiac
Membre émérite https://www.developpez.com
Le 28/11/2016 à 0:27
Tout ça pour avoir comme réponse : 0010 1010 !!
1  0 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 24/06/2016 à 15:09
Citation Envoyé par Carhiboux Voir le message
ET pour les traitements de masse de la NSA, ils font comment? ils sont dans le classement, les supercalculateurs de toutes ces agences qui veulent notre bien?
Le classement se fait à partir des déclarations des propriétaires de ces supercalculateurs… Sans aller jusque la NSA, ce classement ne contient pas forcément tous les supercalculateurs de l'industrie (le monde académique me semble plus ouvert à ce niveau-là) ou de toute organisation qui préfère ne pas donner ce genre d'infos.
0  0 
Avatar de CoderInTheDark
Membre émérite https://www.developpez.com
Le 24/06/2016 à 18:36
J'en pense qu'ils jouent surtout à qui à la plus grosse (puissance).
La course aux armements numériques.
Tant qu'ils se balancent pas de bombes H ou A sur la tête, ça peut aller.
Mais en attendant ils perfectionnent leurs bombes sur leurs bidules.

Si ils peuvent trouver une utilité pour la science et le bien commun à leurs machins.
Je suis pas certains, que se soit forcément que pour des trucs pacifiques.

Les USA ont peur que les chinois utilisent leurs supers calculateurs à des fins militaires.
Ce que eux font avec les leurs, en somme, contre leurs ennemis et alliés.
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 26/11/2016 à 18:27
Il existe un classement semestriel où les chinois ont pris les premières places en étant loin devant. Le premier avec le Thiane 3 est à plus de 93 petaflops, la second dépasse à peine les 30 petaflops.

Ensuite arrive les américains qui mouline à moins de 20 peta. Atos avec Bull dépasse juste les 10 petaflops mais il faut savoir que, 5 ans auparavant, nous étions second après les américains à relever le défi avec le concours du CEA et INRIA à créer un cluster de calcul à 1 peta pour modéliser les armes atomiques de demain... défi lancé sous l'impulsion de Chirac en 1997 suite à l'arrêt des essais nucléaires dans le Pacifique. Non seulement, les puces doivent être parfaitement coordonnées et optimisées, mais l'OS, en l'occurence GNU/linux dans 498 cas sur les 498 premiers doit tourner comme une horloge suisse.

Pourquoi cette course à la puissance démesurée ? L'IA dans le domaine scientifique mais aussi les immenses entrepôts de données à traiter. Et pas seulement par la NSA.
Le marché est à venir dans les 10 prochaines années. Donc tous les pays disposant de ressources dans le domaine se lancent à l'assaut non pas pour le conquérir, mais pour conserver son indépendance.
Car les données certes il faut les protéger et en prendre grand soin. Mais la vitesse de leur traitement sera cruciale.
0  0 
Avatar de earhater
Membre éprouvé https://www.developpez.com
Le 26/11/2016 à 19:19
Je salue le commentaire de mon VDD, à la première lecture de l'article je me suis dit que c'était juste une course de celui qui a la plus grosse mais quand on comprend les enjeux politique derrière ça va mieux.

Par contre qu'en est-t-il des ordinateurs quantiques ?
0  0 
Avatar de KEKE93
Membre éclairé https://www.developpez.com
Le 26/11/2016 à 20:16
En effet, l'exascale, c'est un peu le saint gral, car c'est en gros l'échelle qu'il faut pour modéliser tout un cerveau humain et donc comprendre toutes les maladies neuro-psychiatres qui s'y affèrent...
Le cerveau humain est encore la seule partie du corps où on peut baptiser par des noms des zones mal connues...
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 27/11/2016 à 5:36
Citation Envoyé par dourouc05 Voir le message
En présentant une architecture très simplifiée (http://www.nextplatform.com/2016/06/...supercomputer/). Je ne sais pas ce qu'il faut en penser : soit ils ont choisi la simplicité parce que ça leur donne d'énormes avantages (plus de transistors disponibles pour du calcul), soit parce qu'ils n'ont pas assez d'expérience pour faire mieux (pas de cache, mémoire DDR3, par exemple). À mon avis, on est entre les deux : leur machine excelle pour l'algèbre linéaire pure (avec une efficacité énergétique de six gigaflops par watt, trois fois plus que les superordinateurs habituels), mais tombe des nues dès qu'on lui demande de déplacer des données en mémoire (voir la ligne HPCG). Elle ne sera donc pas forcément plus rapide que Tianhe-2, selon ce qu'on lui demande.
1- techniquement la gestion de la mémoire reste le plus complexe à gérer
2- Les CPU servant de chef d'orchestre aux GPU/coprocessors
3- les composants utilisés doivent être fiables donc pas nécessairement de dernière génération
4- il s'agit de technologies de pointe au même titre que la Formule 1

Le TIANHE dispose du meilleur rendement. Après question coût en $$$...
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 27/11/2016 à 14:17
Citation Envoyé par sazearte Voir le message

C'est à dire ? tu parle des temps d’accès ou du partage de la mémoire, ou d'autre chose... ?
Pour le 1er de toute façon on peut pas y faire grand chose aujourd'hui, la ram c'est lent
Pour le 2ieme les outils ont beaucoup évoluer, tous les OS permette (assez simplement) le partage de mémoire entre les nœuds de calcules, et avec cuda on peut maintenant unifier la mémoire cpu et gpu par exemple, après à charge au dev de placer certains variables efficacement.
Optimiser les temps d'accés en fonction du timing des résultats à apporter. Tous les µproc travaillent en temps masqué comme on dit dans l'industrie. C'est à dire, chacun fait sa tache allouée. A l'époque où j'en ai discuté lors d'une formation accélérée, ça n'existait pas. Et le plus gros du travail à faire était de créer des "await/release" à gogo pour coordonner les calculs. A cette vitesse là, la RAM sert juste à stocker les résultats temporaires. Tout se fait dans le cache. Et les accés à la mémoire partagée à gérer pour éviter de retourner un résultat faux ou pire était le principal obstacle.
0  0