Developpez.com

Le Club des Développeurs et IT Pro

Le Japon annonce le projet de construction d'un supercalculateur d'une puissance de 130 pétaflops

Pourra-t-il se hisser à la tête dans ce domaine ?

Le 2016-11-26 17:35:01, par Olivier Famien, Chroniqueur Actualités
Le Japon vient d’annoncer son projet de construction du supercalculateur le plus véloce au monde. Ce projet a été baptisé AI Bridging Cloud Infrastructure (AIBC) et nécessitera la coquette somme de 173 millions de dollars.

Depuis quelques années maintenant, le Japon fait face à une concurrence féroce dans divers domaines des technologies. La Chine, la Corée du Sud, les États-Unis ne manquent pas de venir titiller le Japon dans les domaines technologiques où il excelle le plus. Actuellement, même le supercalculateur le plus rapide au monde est celui de la Chine, le Sunway TaihuLight avec une puissance linéaire de 93 pétaflops.

Aussi pour revenir au-devant de la scène dans le domaine des supercalculateurs, comme ce pays l’est dans le domaine de la robotique, le Japon s’est donc lancé dans la construction de superordinateur censé battre celui de la Chine considérée actuellement comme le plus rapide au monde. Pour ce faire, AIBC est annoncé comme devant produire une puissance de 130 pétaflops, c’est-à-dire 130 millions de milliards d’opérations par seconde.

Le projet est actuellement au stade d’appel d’offres. La date butoir a été fixée au 8 décembre prochain. Une fois que les acteurs de la mise en œuvre auront été choisis, les travaux débuteront dès l’année prochaine. À terme, il devrait permettre de s’illustrer comme leader dans ce domaine. Toutefois, au-delà de la volonté de s’afficher à l’avant-garde dans ce domaine en concevant ce superordinateur, le Japon espère accélérer l’innovation dans le domaine de l’apprentissage profond, un sous-ensemble de l’apprentissage automatique qui fonde son apprentissage sur des modèles de données avec un haut niveau d’abstraction.

En plus des domaines de l’intelligence artificielle que le Japon souhaite améliorer, ce superordinateur pourrait être également utilisé pour « ;exploiter les dossiers médicaux afin de développer de nouveaux services et applications ;», Satoshi Sekiguchi, le directeur général de l’Institut national japonais des sciences et technologies industrielles avancées, a confié à Reuters.

En outre, le Japon compte mettre ce superordinateur à la disposition des entreprises japonaises afin d’offrir à ces derniers une alternative encore plus performante de sorte qu'ils ne se tournent pus vers des entreprises étrangères telles que Google, Microsoft et bien d’autres entités pour effectuer leurs calculs de haute performance.

Toutefois, il convient de faire remarquer que la course au supercalculateur le plus rapide ne semble pas gagnée d’avance. Nous augurons que cette annonce ne laissera pas indifférents les autres pays comme la Chine, en première et seconde place avec les supercalculateurs Sunway TaihuLight (93 pétaflops) et Tianhe-2 (33 pétaflops) ou encore les États-Unis en troisième (Titan avec 17 pétaflops), quatrième (Sequoia avec 16 pétaflops) et cinquième (Cori avec 2 Gigaflops) place.

Et dans ce sens, on a les États-Unis qui se sont lancés dans la construction d’un superordinateur avec une puissance de calcul pouvant dépasser les 200 pétaflops. En outre, d’autres pistes sont actuellement explorées afin de construire un supercalculateur d’un exaflops, soit un milliard de milliards (1 trillion) de calculs par seconde.

Source : Reuters

Et vous ?

Que vous inspire cette course au supercalculateur le plus rapide ?

Le Japon pourra-t-il tenir tête aux autres concurrents dans ce domaine ?

Voir aussi

Google pourrait construire un véritable ordinateur quantique dès 2017, capable de surpasser n'importe quel supercalculateur classique

La Rubrique Programmation, Forum Algorithmique et Mathématiques,
  Discussion forum
26 commentaires
  • marsupial
    Expert éminent
    Il faut intégrer comme paramètre les ressources énergétique constituant un frein au gain de puissance de calcul.
  • DelphiManiac
    Membre émérite
    Tout ça pour avoir comme réponse : 0010 1010 !!
  • marsupial
    Expert éminent
    Il existe un classement semestriel où les chinois ont pris les premières places en étant loin devant. Le premier avec le Thiane 3 est à plus de 93 petaflops, la second dépasse à peine les 30 petaflops.

    Ensuite arrive les américains qui mouline à moins de 20 peta. Atos avec Bull dépasse juste les 10 petaflops mais il faut savoir que, 5 ans auparavant, nous étions second après les américains à relever le défi avec le concours du CEA et INRIA à créer un cluster de calcul à 1 peta pour modéliser les armes atomiques de demain... défi lancé sous l'impulsion de Chirac en 1997 suite à l'arrêt des essais nucléaires dans le Pacifique. Non seulement, les puces doivent être parfaitement coordonnées et optimisées, mais l'OS, en l'occurence GNU/linux dans 498 cas sur les 498 premiers doit tourner comme une horloge suisse.

    Pourquoi cette course à la puissance démesurée ? L'IA dans le domaine scientifique mais aussi les immenses entrepôts de données à traiter. Et pas seulement par la NSA.
    Le marché est à venir dans les 10 prochaines années. Donc tous les pays disposant de ressources dans le domaine se lancent à l'assaut non pas pour le conquérir, mais pour conserver son indépendance.
    Car les données certes il faut les protéger et en prendre grand soin. Mais la vitesse de leur traitement sera cruciale.
  • earhater
    Membre éprouvé
    Je salue le commentaire de mon VDD, à la première lecture de l'article je me suis dit que c'était juste une course de celui qui a la plus grosse mais quand on comprend les enjeux politique derrière ça va mieux.

    Par contre qu'en est-t-il des ordinateurs quantiques ?
  • KEKE93
    Membre éclairé
    En effet, l'exascale, c'est un peu le saint gral, car c'est en gros l'échelle qu'il faut pour modéliser tout un cerveau humain et donc comprendre toutes les maladies neuro-psychiatres qui s'y affèrent...
    Le cerveau humain est encore la seule partie du corps où on peut baptiser par des noms des zones mal connues...
  • marsupial
    Expert éminent
    Envoyé par dourouc05
    En présentant une architecture très simplifiée (http://www.nextplatform.com/2016/06/...supercomputer/). Je ne sais pas ce qu'il faut en penser : soit ils ont choisi la simplicité parce que ça leur donne d'énormes avantages (plus de transistors disponibles pour du calcul), soit parce qu'ils n'ont pas assez d'expérience pour faire mieux (pas de cache, mémoire DDR3, par exemple). À mon avis, on est entre les deux : leur machine excelle pour l'algèbre linéaire pure (avec une efficacité énergétique de six gigaflops par watt, trois fois plus que les superordinateurs habituels), mais tombe des nues dès qu'on lui demande de déplacer des données en mémoire (voir la ligne HPCG). Elle ne sera donc pas forcément plus rapide que Tianhe-2, selon ce qu'on lui demande.
    1- techniquement la gestion de la mémoire reste le plus complexe à gérer
    2- Les CPU servant de chef d'orchestre aux GPU/coprocessors
    3- les composants utilisés doivent être fiables donc pas nécessairement de dernière génération
    4- il s'agit de technologies de pointe au même titre que la Formule 1

    Le TIANHE dispose du meilleur rendement. Après question coût en $$$...
  • marsupial
    Expert éminent
    Envoyé par sazearte

    C'est à dire ? tu parle des temps d’accès ou du partage de la mémoire, ou d'autre chose... ?
    Pour le 1er de toute façon on peut pas y faire grand chose aujourd'hui, la ram c'est lent
    Pour le 2ieme les outils ont beaucoup évoluer, tous les OS permette (assez simplement) le partage de mémoire entre les nœuds de calcules, et avec cuda on peut maintenant unifier la mémoire cpu et gpu par exemple, après à charge au dev de placer certains variables efficacement.
    Optimiser les temps d'accés en fonction du timing des résultats à apporter. Tous les µproc travaillent en temps masqué comme on dit dans l'industrie. C'est à dire, chacun fait sa tache allouée. A l'époque où j'en ai discuté lors d'une formation accélérée, ça n'existait pas. Et le plus gros du travail à faire était de créer des "await/release" à gogo pour coordonner les calculs. A cette vitesse là, la RAM sert juste à stocker les résultats temporaires. Tout se fait dans le cache. Et les accés à la mémoire partagée à gérer pour éviter de retourner un résultat faux ou pire était le principal obstacle.
  • patmaba
    Membre actif
    J'ai une question pour les responsables Developpez.com.
    L'AI est un sujet de plus en plus en bogue en ce moment. Surtout avec le Big data.
    Est-ce que Developpez.com prévoit une future section AI ?

    Bien à vous
  • Envoyé par sazearte

    C'est à dire ? tu parle des temps d’accès ou du partage de la mémoire, ou d'autre chose... ?
    Les analyses préalables de complexités des algorithmes a un si bas niveau ?

    J'ose même pas pensé au ratio complexité / efficacité.

    Envoyé par marsupial

    2- Les CPU servant de chef d'orchestre aux GPU/coprocessors
    C'est comme pour les chercheurs, il faut réservé du temps et ressources sur une période données. Cela dit les périodes avec un début mais pas de fin prédéfini sont quelques tolérés.
  • dourouc05
    Responsable Qt & Livres
    Envoyé par patmaba
    Est-ce que Developpez.com prévoit une future section AI ?
    Le site ne se construit que par sa communauté : si tu as des choses à proposer pour une telle rubrique, n'hésite pas . (Il y a déjà un forum, il faut y amener de l'activité, des gens qui posent des questions et y répondent ; du contenu, aussi, notamment avec des tutoriels, des FAQ, des traductions.)