Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir
Et annonce que la loi de Moore n'est plus valable

Le , par Olivier Famien, Chroniqueur Actualités
En 2015, lors d’un évènement qui a consacré la célébration des 50 ans de la loi Moore, Gordon Moore, l’auteur de cette loi, a souligné qu’il fut marqué par le fait que cette loi dura autant d’années. Il faut rappeler que la première version de cette loi qui soutient que le nombre de transistors sur un circuit intégré doublerait chaque année fut rapportée publiquement le 19 avril 1965.

Mais, compte tenu du ralentissement technologique, Moore a révisé cette prédiction en 1975 en affirmant que le nombre de transistors sur un circuit intégré doublerait non plus chaque année, mais chaque deux ans. Les deux premières années, Moore reconnait qu’il ne pouvait pas prononcer le terme loi de Moore, car c’était assez embarrassant. Mais une fois cette période passée, il fut en mesure de le dire sans gêne aucune.

Cependant, au regard des limites physiques liées à la réduction de la taille des composants sur un circuit intégré, Moore n’a pas manqué de souligner qu’il donnait cinq ou dix ans au plus à cette loi pour rester toujours vraie, après quoi la fréquence de croissance des transistors ne respectera plus la projection faite.

Il y a quelques heures, Jensen Huang, le fondateur et PDG de NVIDIA, a enfoncé le clou en déclarant lors d’une conférence sur les processeurs graphiques (GPU en anglais) que la loi de Moore n’est plus valable. Selon lui, cette époque est au-delà de la loi Moore dans la mesure où les transistors des processeurs (CPU) ont augmenté de 50 % par an pour une performance réduite à 10 % seulement. En continuant sur cette lancée, Huang envisage une baisse drastique de la croissance des performances des CPU, ce qui obligerait les entreprises à se tourner vers des alternatives comme les GPU NVIDIA.

NVIDIA conçoit depuis des années des processeurs graphiques, cartes graphiques et puces graphiques pour les ordinateurs et les consoles de jeux. Mais depuis un bout de temps, l’entreprise est passée à une nouvelle génération de ses cartes graphiques qui intègrent plus de puissance. Ces processeurs graphiques soutenus pour certains par des réseaux neuronaux seraient, selon Huang, plus performants que les CPU.

En d’autres termes, les GPU NVIDIA pourraient remplacer les CPU en raison de leurs capacités de calcul qui ont considérablement augmenté au cours des années. En outre, il souligne que certaines grandes entreprises, notamment, Alibaba, Baidu, Tencent, JD.com et iFLYTEK (les cinq premiers opérateurs de commerce électronique en Chine) ont adopté les architectures GPU Nvidia Volta pour prendre en charge les services cloud, tandis que Huawei, Inspur et Lenovo ont déployé des serveurs GPU basés sur HGX.

Pendant cette conférence, NVIDIA a présenté son dernier produit TensorRT3, qui peut être programmé pour booster les performances des serveurs. Et pour couronner le tout, la société s’est associée avec Huawei, Lenovo et Inspur pour développer l’accélérateur Tesla 100 HGX-1, un serveur basé sur un GPU et qui peut surpasser les serveurs CPU traditionnels en termes d’efficacité opérationnelle, de gestion, de reconnaissance vocale et dans bien d’autres domaines.

Mais, bien que Huang soit enthousiaste quant au fait que les GPU pourraient remplacer les CPU dans les années à venir, Intel a déclaré que cela ne se fera pas lorsqu’elle a présenté pendant une de ses conférences les détails techniques de son processeur gravé en 10 nm.

Source : Segment Next

Et vous ?

Pensez-vous que les processeurs graphiques pourront remplacer les CPU dans un avenir proche ?

Vers quel modèle technologique s’orientera-t-on pour soutenir les performances des processeurs après la fin de la loi de Moore ?

Voir aussi

50 ans de la loi de Moore : l'auteur étonné qu'elle ait façonné l'industrie technologique aussi longtemps, il prédit sa fin dans une dizaine d'années
NVIDIA présente sa nouvelle génération de cartes graphiques, Volta accélère d'un facteur trois l'apprentissage profond grâce à ses cœurs tensoriels
NVIDIA détaille la version PCI Express de ses cartes Volta avec une consommation énergétique réduite à 250 W et la fréquence amputée de 85 MHz


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Old Geek Old Geek - Membre habitué https://www.developpez.com
le 29/09/2017 à 3:05
Bah, ce qui défini un CPU ou un GPU c'est sa conception selon son utilisation mais au final ça reste une unité de calcul et le reste n'est que du blabla commercial.

Si j'utilise un GPU équipé pour servir d'unité de calcul principal c'est un CPU avec GPU intégré ou un GPU équipé d'un CPU epicétou
Avatar de RyzenOC RyzenOC - Membre expert https://www.developpez.com
le 29/09/2017 à 7:14
Pourtant Intel concurrence Nvidia avec ces Xeon Phi sur certains calcules spécifiques.
a supériorité des gpu est loin d’être vrai.

au passage l'encodage video (chez les pro) se fait toujours sur cpu qui fait du meilleur rendu que sur gpu.
Avatar de e101mk2 e101mk2 - Membre actif https://www.developpez.com
le 29/09/2017 à 8:05
Pour que Nvidia disent vrai, il faut qu'il augmente leur fréquence et leur finesse de gravure, tout en baissant le prix. Ce qui est impossible.
Un GPU restera toujours plus optimisé qu'un CPU pour certaine tache,
mais le rôle du CPU est d'être polyvalent, en permettant la communication avec les composants, avec un jeux d'instruction normalisée (ex i386, amd64 etc) pour assurer la compatibilité avec les programmes.

Avec le nombre d'années où ATI et Nvidia ce font la guerre, ils ont pas été fichu de normaliser, pour obtenir un driver générique avec accélération graphique. Que les GPU remplace les CPU est un doux rêve.

NVIDIA conçoit depuis des années des processeurs graphiques, cartes graphiques et puces graphiques pour les ordinateurs et les consoles de jeux.
Troll On: Lesquelles? La switch? Nvidia Shield?
Avatar de nirgal76 nirgal76 - Membre expérimenté https://www.developpez.com
le 29/09/2017 à 9:11
Citation Envoyé par RyzenOC Voir le message
Pourtant Intel concurrence Nvidia avec ces Xeon Phi sur certains calcules spécifiques.
a supériorité des gpu est loin d’être vrai.

au passage l'encodage video (chez les pro) se fait toujours sur cpu qui fait du meilleur rendu que sur gpu.
Le rendu dépends de l'algorithme, pas de l'unité de calcul qui l'implémente.
Avatar de Ryu2000 Ryu2000 - Expert confirmé https://www.developpez.com
le 29/09/2017 à 10:18
Citation Envoyé par Olivier Famien Voir le message
Pensez-vous que les processeurs graphiques pourront remplacer les CPU dans un avenir proche ?
Il me semble que l’intérêt des cartes graphiques c'est qu'il y a un nombre très important de cœurs. (j'ai fais du CUDA à l'école)
Mais j'imagine que les performances mono cœur, sont bien plus faible que sur un processeur.

Toutes les applications ne sont pas conçu pour prendre en compte un grand nombre de processeur.
Certaines tâches ne sont pas très parallélisable.

Citation Envoyé par e101mk2 Voir le message
Troll On: Lesquelles? La switch? Nvidia Shield?
Peut être qu'nVidia n'est pas content que Sony et Microsoft utilise des APU et GPU AMD dans leur console.
Si ça se trouve nvidia propose des trucs pour les prochaines consoles.
Avatar de koyosama koyosama - Membre confirmé https://www.developpez.com
le 29/09/2017 à 12:31
Citation Envoyé par Old Geek Voir le message
Bah, ce qui défini un CPU ou un GPU c'est sa conception selon son utilisation mais au final ça reste une unité de calcul et le reste n'est que du blabla commercial.

Si j'utilise un GPU équipé pour servir d'unité de calcul principal c'est un CPU avec GPU intégré ou un GPU équipé d'un CPU epicétou
Je ne suis pas expert, mais cela me semble louche ce que tu dis. J'ai donc fait un peu de recherche. Car la premiere logique qui me vient a l'esprit, c'est pourquoi on fait cette differentation. Je me suis rappeler de la CIA qui utilisait des PS3 pour faire tourner leur serveur et je me rends compte qu'il y a peut-etre une utilite.

D'abord voici deux liens qui peuvent utile :


Apres fais cette recherche, j'en conclus que faire ne almagame pareille, c'est vachement grave.

Comme dit sur le postcast, beaucoup d'acteurs comme paypal, amazon, ...

Voila ce que j'ai retenu :
  • Physiquement un CPU a au max quelque core, quand un GPU a des centaines de core minimum
  • Le GPU est superbon au traitement de calcul complexe et surtout mathematique par contre il n'est pas super aussi bon quele CPU pour des choses basiques que le systeme d'explotation traite
  • le GPU ayant de capaicte calcul impressionnante, il peut servir pour le deep learning, l'AI, tout calcul
  • Etant donnee que le GPU a vachement plein de core, son princple est purement de la programmation parallel de haut niveau. Ils l'ont aussi specifie que peux de languages et peu de framework pourraient opere sur ce genre de architecture physique. Alors dire que le GPU c'est un juste CPU ets grotesque. Aucun non 10x programmeur peut travailler sur ce genre de materiel, c'est carement du niveau de l'ingenierie informatique que du simple developpeur javascript.


Il y a aussi quelque chose de surprenant comme par la programmation fonctionnel qui peut etre optmial dessus. Ceux par exemple qui sont familie avec AWS lambda ou si vous voulez une partie du serveless programming, le GPU est optimal pour ce genre d'operations. Je ne connais pas beaucoup de gens monde qui maitrises ce genre de programmatons.

HBO Silicon Valley (c'est purement une serie fictionnel, je vous ai prevenu ^^), Gilford conseille a Richard d'utiliser des GPU que d'utilser des plateformes cloud qui utilisent des pauvres structures avec des CPUs. Parce que l'algorithmes de compression qui utilisent des calculs assez complexes pour compresser, decompressez et chercher dans des donnees compresses (calcul de signatures ...) sur un temps relative super rapide demande une telle demande de calculs.

Conclusions :
  • Tu programmes differements
  • Tu scales l'architecture differement
  • L'usage peut est complementements differements ou complemnentaires l'un a l'autre
  • Si demain, la tendance est au GPU comme pour Javascript alors je dois apprendre toutes les notions de programmation parallele, le marche de l'emploi aussi et je dois m'acheter des cachets d'aspirines pour finir ma formation sur la programmation paralleles et surtout le C++ pour tirer au max la puissance du GPU. C'est pas un truc qu'on rigole. Apprendre toutes les stacks de Javascript est juste un jeux d'enfants comparer a sa.


Apres je peux me tromper, je maitrise pas encore le sujet pour confirmer ces dires @oldgeek.
Les expert de creation et d'utilisations de moteur de jeux sont de meilleurs expert que moi ^^.
Avatar de Old Geek Old Geek - Membre habitué https://www.developpez.com
le 29/09/2017 à 13:20
Citation Envoyé par koyosama Voir le message
Je ne suis pas expert, mais cela me semble louche ce que tu dis[...]
Un GPU ne reste qu'une forme de co-processeur dédié à un type de tache, tout comme le FPU et tout ce qui a été rajouté après avec le temps.
Photoshop peut utiliser un GPU comme co-processeur pour accélérer certain traitement parce qu'il possède des unités dédié à des taches bien précise ce qui rend l'application plus performante mais il y d'autre traitement qui reste plus efficace au niveau du CPU qui est plus polyvalent en l'absence de circuit spécifique. On pourrais faire comme raccourci une forme de logiciel "hardware" pour optimiser un type de traitement.

Normal que ça ne se programme pas de la même façon tout comme tu ne programmes pas un CPU CISC de la même façon qu'un CPU RISC et pourtant tu peux faire la même chose avec plus ou moins la même efficacité selon le type de calcul.

Euh.. par contre tout processeurs est conçu pour du calcul mathématique, 'fin je dis ça je dis rien

Essaye de simplifier au maximum la doc que tu lis pour en extraire la base, le reste est bien souvent de la pure com pour faire passer des vessies pour des lanternes.
Avatar de koyosama koyosama - Membre confirmé https://www.developpez.com
le 29/09/2017 à 14:03
Citation Envoyé par Old Geek Voir le message
Euh.. par contre tout processeurs est conçu pour du calcul mathématique, 'fin je dis ça je dis rien
Pas tellement, tout utilisateur peut le voir si il essaie d'outlimiter les capacites de taches qu'il peut faire sur son ordinateurs. Et les entreprises n'auraient pas de probleme de cout et IBM ne se ferait pas chier pour faire des super-calculateurs. Quand je dis mathematique, c'est un peu simplet.

L'exemple qu tu cites est vachement interessant car cela va dans le sens de l'article et de NDVIA. Comme tu le dis en fait le GPU peut faire le travail d'un CPU. Mais moi j'ai prouve que vice-versa n'est pas possible (jouer a GTA 5 avec un simple CPU, je ne suis pas contre mais c'est pas possible). Donc en gros, on peut speculer que NDvia a raison, demain c'est possible que les CPU disparaissent au profit du GPU.

Apres c'est de la pure com, moi qui compile le kernel je peux sentir une mega net difference entre les machines. Le processeur est un element important selon mes besoins, apres on n'utilise pas tous la machine de la meme facon. Je me suis meme limite par le type de processeur que j'utilise pour faire certaines operations. Je peux comprendre pour toi c'est de la pure com, pour moi c'est essentiel de comprendre les difference, meme aler au dela pour optmiser au max ce qui existe. Je suis que les overcloker te donneront une bonne explication ^^. C'est un peu dire pourquoi veut optmiser les configuration de bases de donnees.

Sans compter que celon moi, le green IT commence par la maitrise optimal de l'optmisation materiel et logiciel. C'est comme cela que le cloud existe, les containeurs existent et le raspberry existe.

Apres faire un type de taches et specifique, c'est la chose la plus complique dans une monde qui veut pas le faire et qui cherche a simplifier les choses par tous les moyens quand en fait l'amazonie est plus grande que la foret.
Avatar de Paul TOTH Paul TOTH - Expert éminent sénior https://www.developpez.com
le 05/10/2017 à 11:33
hum...cette vision de nVidia explique peut-être pourquoi le "driver video" de ma carte nVidia prend maintenant plusieurs Go de disque (oui en comptant tout l'espace disque perdu par des répertoires temporaires de téléchargement jamais effacés dans ses multiples versions)
Avatar de Mat.M Mat.M - Expert éminent sénior https://www.developpez.com
le 05/10/2017 à 14:28
Citation Envoyé par Olivier Famien Voir le message
Le CEO de NVIDIA déclare que les GPU remplaceront les CPU dans les années à venir
ehhh quel intérêt d'avoir de la puissance de calcul pour commander une pizza ou le dernier Marc Levy sur Amazon ?
Offres d'emploi IT
Développeur de logiciels pour Mac (H/F)
COGILOG - Midi Pyrénées - Toulouse (31000)
Développeur Java/J2EE (H/F)
SMILE - Languedoc Roussillon - Montpellier (34000)
Architecte Systèmes et Réseaux H/F
Michael Page - Nord Pas-de-Calais - Lille (59000)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Accueil