IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

NVIDIA va concevoir des processeurs haute performance basés sur la technologie Arm,
S'attaquant ainsi à Intel avec une nouvelle technologie destinée à l'IA avancée

Le , par Stan Adkens

98PARTAGES

6  0 
Le géant américain des GPU va encore plus loin dans ses ambitions informatiques en dévoilant un processeur polyvalent pour centres de données basé sur la technologie Arm. Le nouveau CPU pour centres de données créera une nouvelle concurrence pour les rivaux Intel et AMD dans le domaine des CPU x86 lorsqu'il arrivera au début de l'année 2023, la fenêtre de lancement indiquée lundi par NVIDIA lors de la conférence virtuelle GTC 2021 de la société. Selon NVIDIA, la nouvelle puce offrira des performances en matière d'intelligence artificielle dix fois supérieures à celles des processeurs EPYC Rome 64 cœurs d'AMD. Des chercheurs prévoient déjà de construire des superordinateurs utilisant les nouvelles puces.

NVIDIA est surtout connu pour ses processeurs graphiques ou GPU, qui sont utilisés pour les jeux vidéo et les tâches de calcul intensif dans les centres de données, et non pour les CPU qui, en revanche, sont un type de puce plus généraliste et peuvent effectuer des tâches de base comme l'exécution de systèmes d'exploitation. Mais cela a changé maintenant. NVIDIA a dévoilé ses premiers microprocesseurs pour serveurs, s'attaquant ainsi au marché le plus lucratif d'Intel – que la société domine à plus de 90 %, selon une étude publiée en février par Mercury Research - avec une puce destinée à gérer les tâches informatiques les plus complexes.


L'expansion dans cette catégorie de produits ouvre de nouvelles possibilités de revenus pour NVIDIA. Par ailleurs, suite à l'annonce par NVIDIA de son intention de fabriquer son propre processeur de serveur, l’action de la société a bondi tandis que l'action d'Intel a clôturé en baisse de 4,18 % lundi, a rapporté CNBC. L'action de NVIDIA a encore progressé, pour atteindre un gain d'environ 6 %, après que la société a déclaré que le revenu du premier trimestre était supérieur à ses prévisions précédentes.

L'ajout de processeurs à sa gamme - des puces qui peuvent être programmées pour traiter un plus large éventail de tâches - pousse le fabricant américain de puces plus loin dans l'informatique des centres de données et fait suite à l'offre de l'année dernière sur la société de conception de processeurs Arm. Avec d'autres technologies annoncées à l’occasion de l’ouverture de la conférence GTC qui se tiendra jusqu’au vendredi prochain, la nouvelle puce "creuse l'écart" en matière de traitement de l'IA entre NVIDIA et les autres fabricants de puces, y compris Intel, a déclaré Chirag Dekate, analyste chez Gartner.

La nouvelle puce, baptisée "Grace" - en l'honneur de Grace Hopper, pionnière de la programmation informatique -, combine un certain nombre de GPU et de CPU basés sur Arm pour produire un ensemble capable de gérer les calculs d'apprentissage automatique les plus avancés. Les systèmes fonctionnant avec cette nouvelle puce seront 10 fois plus rapides que ceux qui utilisent actuellement une combinaison de puces graphiques Nvidia et de CPU Intel, d’après la société.

« Le résultat est que NVIDIA est sérieux en ce qui concerne les CPU et ne sera pas limité par les X86 détenus par Intel et AMD », a déclaré Hans Mosesmann, analyste chez Rosenblatt Securities, dans une note de recherche. « Le niveau d'innovation de la plateforme est époustouflant et c'est quelque chose que les concurrents en puces auront la tâche d'égaler pendant de nombreuses, nombreuses années à venir ».

Le chiffre d'affaires du trimestre se terminant en avril est supérieur aux 5,3 milliards de dollars que NVIDIA avait prévus le 24 février, avec une surperformance sur chacune de ses plateformes de marché, a indiqué lundi la société dans un communiqué distinct.

« Nous connaissons une force généralisée, toutes nos plateformes de marché entraînant une hausse de nos perspectives initiales », a déclaré Colette Kress, directrice financière de NVIDIA. « La demande globale reste très forte et continue de dépasser l'offre, tandis que les stocks de nos canaux restent assez faibles. Nous prévoyons que la demande continuera à dépasser l'offre pendant une grande partie de cette année ».

Une technologie également destinée aux systèmes de traitement du langage naturel

Dans son discours d'ouverture de la GTC 2021, Jensen Huang, PDG de NVIDIA, a qualifié "Grace" de « pièce finale du puzzle » et a dit qu'elle donnerait à l'entreprise la « capacité de réarchitecturer chaque aspect du centre de données pour l'IA ».

Avec l'introduction des CPU dans le portefeuille de NVIDIA, Huang a déclaré que sa feuille de route de produits pour les centres de données sera désormais constituée de trois lignes de produits - GPU, unités de traitement de données (DPU) et CPU - et que chaque ligne de produits recevra une architecture actualisée tous les deux ans. Dans une nouvelle feuille de route, NVIDIA a montré qu'un CPU "Grace" de nouvelle génération devrait sortir vers 2025, après la sortie d'un GPU Ampere de troisième génération et d'un DPU BlueField-4 l'année précédente.


Selon Huang, la société se concentrera alternativement sur les plateformes x86 et Arm tous les deux ans, car NVIDIA veut s'assurer que son architecture supportera les plateformes préférées des clients. « Chaque architecture de puce a un rythme de deux ans, avec probablement un coup de pouce entre les deux », a-t-il déclaré. « Une année se concentrera sur les plateformes x86. Une année sera consacrée aux plateformes Arm ».

L'entreprise de Santa Clara, en Californie, a déclaré qu'elle avait déjà trouvé deux clients importants pour son processeur Grace : le Centre national suisse de calcul intensif (CSCS) et le Laboratoire national de Los Alamos du ministère américain de l'Energie, qui prévoient tous deux de mettre en ligne des superordinateurs alimentés par "Grace" et construits par Hewlett Packard Enterprise en 2023.

La première utilisation de la nouvelle puce est prévue dans le domaine scientifique avec les premiers clients annoncés. Cependant, Paresh Kharya, directeur principal de la gestion des produits de calcul accéléré de NVIDIA, a déclaré que la technologie était également destinée aux systèmes de traitement du langage, l'une des tâches les plus difficiles de l'IA, et un domaine qui est devenu le centre d'une concurrence intense entre les plus grandes plateformes technologiques.

Signe de la valeur commerciale croissante des systèmes de langage avancés, Microsoft a accepté lundi de payer près de 20 milliards de dollars pour Nuance Communications, spécialisée dans l'IA et la reconnaissance vocale pour les soins de santé.

Selon Kharya, les processeurs qui font la navette entre les données et les GPU spécialisés qui effectuent le gros du travail de formation des modèles d'IA sont devenus le goulot d'étranglement des systèmes d'IA les plus exigeants. En utilisant ses propres puces, basées sur les conceptions d'Arm, NVIDIA pense pouvoir accélérer le flux de données et obtenir une efficacité dix fois supérieure.

Le Centre national suisse de calcul intensif fournit des calculs scientifiques. Kharya a déclaré que le supercalculateur Alps du CSCS sera capable d'entraîner GPT-3, le plus grand modèle de traitement du langage naturel au monde, en seulement deux jours. C'est sept fois plus rapide que le superordinateur Selene de NVIDIA, qui est actuellement classé n° 5 dans le top 500 des superordinateurs du monde.


« Cette architecture équilibrée avec "Grace" et un futur GPU NVIDIA, que nous n'avons pas encore annoncé, permettra une recherche révolutionnaire dans un certain nombre de domaines différents en leur permettant de combiner la puissance à la fois du HPC et de l'IA, faisant progresser le climat et la météo, faisant progresser les sciences des matériaux, la dynamique moléculaire ainsi que l'économie et les études sociales », a-t-il déclaré.

NVIDIA présente le nouveau CPU aux propriétaires de centres de données - des hyperscalers comme AWS d'Amazon.com Inc. et Google d'Alphabet Inc. - comme un moyen d'exploiter plus efficacement les logiciels d'intelligence artificielle et d'améliorer la capacité à donner un sens au flux de données qu'ils reçoivent.

La formation d'un programme à l'aide d'un trillion (1000 milliards) de points de données peut prendre jusqu'à un mois actuellement. "Grace" réduira ce délai à trois jours, selon Ian Buck, un vice-président de NVIDIA. Pour les utilisateurs finaux des services Cloud, cela conduira à des ordinateurs capables de comprendre le langage humain naturel et de rendre l'aide automatisée en ligne beaucoup plus efficace, a-t-il ajouté.

NVIDIA, qui a du mal à faire face à la demande croissante sur le marché des GPU, se lance maintenant dans la course sur le marché féroce des CPU. Espérons que le fabricant de cartes graphiques à la capacité de faire face à la concurrence tout en tenant le marché des GPU.

NVIDIA a révélé son intention d'aller plus loin dans le traitement des centres de données lorsqu'elle a annoncé l'achat d'Arm pour un montant pouvant atteindre 40 milliards de dollars l'année dernière, bien que l'opération soit actuellement confrontée à des obstacles réglementaires. Mais sa nouvelle puce est le produit d'un travail qui remonte à bien plus loin, et NVIDIA a signalé pour la première fois son intérêt pour le marché en 2019 lorsqu'elle a déclaré qu'elle adapterait tous ses logiciels pour qu'ils fonctionnent sur les processeurs Arm.

La poussée de l'entreprise plus profondément dans l'informatique des centres de données a soulevé le risque de conflit avec certains de ses propres clients, qui conçoivent leurs propres CPU. Parmi eux, Amazon, qui a développé une puce Arm très puissante, connue sous le nom de Graviton, pour l'utiliser dans Amazon Web Services.

Pour l'instant, la poussée de NVIDIA dans le très haut de gamme des systèmes d'IA signifie qu'elle se trouve encore sur un marché différent de celui de clients tels qu'Amazon, a déclaré Dekate de Gartner. Signe que les deux camps sont encore capables de travailler ensemble, NVIDIA a également annoncé lundi un accord avec Amazon pour offrir aux clients d'AWS son GPU d’apprentissage machine fonctionnant sur des puces Graviton.

Source : Vidéo YouTube

Et vous ?

Que pensez-vous du processeur de NIVIDIA basé sur la technologie Arm ?
La nouvelle puce annonce-t-elle une domination de NVIDIA sur le marché des CPU pour centres de données ?

Voir aussi :

NVIDIA amorce le rachat d'Arm Holdings auprès de Softbank pour 40 milliards de dollars. L'opération devrait s'achever d'ici mars 2022, sous réserve de l'approbation des autorités réglementaires
Le projet de SoftBank de vendre Arm à NVIDIA se heurte au mur antitrust dans le monde entier, le fabricant de puces américain étant en concurrence directe avec des clients d'Arm
Microsoft confirme l'acquisition de la société d'IA, Nuance Communications, pour près de 20 milliards $, soit la plus importante acquisition après LinkedIn
Amazon dévoile sa seconde génération de puces Arm 64 bits conçue en interne et ciblant l'infrastructure Cloud, l'entreprise confirme aussi sa volonté de réduire sa dépendance vis-à-vis du géant Intel

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de archqt
Membre émérite https://www.developpez.com
Le 14/04/2021 à 9:48
Ben j'en pense que le M1 d'Apple a ouvert la voie de puces autre que les x86. Et que cela va s'améliorer encore
0  0 
Avatar de darklinux
Membre extrêmement actif https://www.developpez.com
Le 15/04/2021 à 1:00
Comparé l ' Apple Mx au Nvidia Grace , revient a comparé une Austin Mini à une F40 , les architectures non rien à voir
0  0 
Avatar de pcdwarf
Membre éprouvé https://www.developpez.com
Le 20/04/2021 à 23:58
des processeurs à base de ARM, c'est une excellente nouvelle.

Par contre des processeurs conçus pour l'IA.... Mais pour quoi faire ?
D'accord, y'a sans doute un marché... actuellement couvert par les GPU....
mais un marché de masse ?
Il semble que l'IA devienne le sujet de buzzword par excellence...

C'est pas étonnant que ça soit dans l'air du temps, c'est une techno qui permet de faire des trucs sans rien comprendre à ce qu'on fait vraiment ni comment on le fait.
Alors autant je trouvais ça cool dans le jeu vidéo il y a quelques années, autant plus le temps passe et plus je trouve ça débile et néfaste.

Ok, l'ia marche bien dans des trucs bien cadrés à l'information exhaustive aux règles déterministes et à l'objectif clair du genre jeu vidéo.
Mais dans le monde réel, c'est ce pour quoi l'IA est sensée mieux marcher que l'algorithmique qui est décevant.
Soit on est sur un système bien cadré qu'on aurait pu traiter de façon algorithmique et alors l'IA marche pas franchement mieux voir moins bien, (mais possiblement de façon plus efficace)
soit on est sur un cas "big data" et là , c'est du grand n'importe quoi avec des résultats pas nécessairement nuls sur le plan fonctionnel mais affligeant vis a vis des moyens investis.
En fait, je ne compte même pas le nombre de trucs qui dégénèrent depuis qu'on en met partout. C'est probablement pour ça qu'il en faut encore plus !

Alors c'est probablement en raison de la qualité des données source tout comme de la qualité de la fonction d'évaluation, mais il me semble que la capacité des IA a apprendre des conneries dépasse de très très loin leur capacité à accomplir des tâches utiles de façon fiable. Et quand bien même... D'une part, faire une fonction d'évaluation potable ne dispense pas de réfléchir, et d'autre part l'effort de collecte et de qualification des données source à l'apprentissage me semble démesuré.
0  0