Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Deep learning : NVIDIA s'attaque aux résultats de benchmarks d'Intel
Qui présentaient les CPU Xeon Phi plus performants que les GPU Maxwell

Le , par Michael Guilloux

21PARTAGES

6  0 
GPU vs CPU : quel est le type de processeur le plus performant pour le deep learning ? Intel et NVIDIA s’affrontent sur la question et se rangent logiquement du côté le plus favorable à leurs produits.

En juin dernier, lors de la conférence internationale sur le calcul haute performance (ISC 2016), Intel a présenté une slide sur ses dernières puces Xeon Phi Knights Landing. Alors que le fabricant de puces voulait mettre en avant les performances de ses processeurs, Intel a essayé de réfuter ce qui est considéré comme une vérité dans le domaine du calcul haute performance : si les processeurs (CPU) sont faits pour les calculs à haute précision, quand on vient au deep learning, les processeurs graphiques (GPU) sont une meilleure solution, parce que les réseaux neuronaux ne requièrent pas de calculs à haute précision. En plus de cela, le fabricant de CPU a décidé de s’attaquer directement au fabricant de processeurs graphiques NVIDIA.

D’après les résultats de Benchmarks d’Intel, ses CPU sont plus performants que les GPU dans le cadre du deep learning. Entre autres revendications, Intel a en effet présenté ses puces Xeon Phi comme étant jusqu’à 2,3 fois plus rapides que les GPU Maxwell de NIVIDIA pour la formation de réseaux neuronaux.

Le deep learning et le machine learning en général constituent un énorme marché avec un potentiel qui est encore très peu exploité. De quoi donc attirer la convoitise de tous les constructeurs susceptibles d’en tirer profit. Jusque dernièrement, Intel était en mauvaise posture sur ce marché, où il est devancé par les GPU modernes de NVIDIA. Mais le fabricant de CPU tente de rattraper son retard notamment avec le récent rachat de Nervana, une start-up spécialisée dans le deep learning. La semaine dernière, en réponse aux GPU de NVIDIA, Intel a également annoncé à la conférence Intel Developer Forum (IDF) 2016, son nouveau processeur Xeon Phi Knights Mill, optimisé pour le deep learning.

Deux mois après ces revendications, NVIDIA réagit dans un billet de blog pour « corriger les erreurs des benchmarks de deep learning d’Intel », d’après le titre de son billet. NVIDIA prend soin de souhaiter à Intel la bienvenue dans le monde du deep learning, mais estime que ses déclarations ne sont pas valides parce qu’elles reposent sur des données qui sont obsolètes. « C'est formidable qu’Intel travaille actuellement sur le deep learning. C'est la révolution informatique la plus importante à l'ère de l'intelligence artificielle… et le deep learning est trop important pour être ignoré. » Affirme NVIDIA, avant d’ajouter : « Mais ils devraient se baser sur des faits justes ».

En ce qui concerne le fait que les CPU Xeon Phi Knights Landing seraient jusqu’à 2,3 fois plus rapides que les processeurs graphiques Maxwell, NVIDIA explique que c’est seulement parce qu’Intel a utilisé une version obsolète de 18 mois d'un benchmark de deep learning. Avec la dernière implémentation du benchmark, NVIDIA montre que ses GPU Maxwell surpassent les CPU d’Intel de 30 % en rapidité. Lorsque NVIDIA compare les puces Xeon Phi avec ses derniers processeurs graphiques Pascal, la différence est de 90 % à son avantage au lieu de 30 %. NVIDIA affirme encore que son système DGX-1 dédié au deep learning est jusqu’à 5,3 fois plus rapide que quatre serveurs Xeon Phi.


Résultats de tests de NVIDIA

Le fabricant de GPU s’attaque tour à tour aux revendications d’Intel en essayant de montrer les différentes failles. Intel a par exemple affirmé que 128 serveurs Xeon Phi offrent un gain de performance de 50 fois plus élevé qu’avec un seul serveur Xeon Phi, alors que la mise à l’échelle n’est pas possible avec les GPU. Ici encore, NVIDIA a totalement réfuté l’affirmation du fabricant de CPU, en expliquant que Baidu a déjà publié des résultats montrant une augmentation de performance presque linéaire jusqu’à 128 GPU sur une architecture Maxwell, donc beaucoup mieux que la mise à l’échelle avec les CPU Xeon Phi d’Intel.

Contacté par Ars Technica pour savoir s’il a une objection aux déclarations faites dans le billet de blog de NVIDIA, le fabricant de puces répond que « c’est tout à fait compréhensible que NVIDIA soit préoccupé par Intel dans cet espace [le deep learning] ». Et d’ajouter : « Intel publie régulièrement des allégations de performance basées sur des solutions accessibles au public au moment [de ces déclarations], et nous soutenons nos données. »

Source : NVIDIA

Et vous ?

Qu’en pensez-vous ?

Voir aussi :

NVIDIA annonce son architecture Pascal et CUDA 8, les opérations d'apprentissage de réseaux neuronaux accélérées d'un facteur douze
IA : Intel s'offre l'expertise de Nervana Systems dans le deep learning, pour améliorer les performances de ses processeurs Xeon et Phi Xeon

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Veovis
Membre du Club https://www.developpez.com
Le 22/08/2016 à 16:21
Citation Envoyé par Aiekick Voir le message
Je ne comprends pas cette affirmation.

Pour moi le deep learning, c'est un champ d'application qui est large c'est pas limité a des réseau de neurone et quand bien même, des réseau de neurone on peu en faire tout un tas de différents.

qu'entendaient t'ils par optimisé pour le deep learning ? ils ciblent une techno en particulier ?
Le deep learning est un terme qui renvoie à toutes les architectures de réseau de neurones (classique, convolutionnel, récurrent....) mais aussi aux méthodes d'apprentissages (SGD, AdaM, Adamax...).
1  0 
Avatar de Veovis
Membre du Club https://www.developpez.com
Le 23/08/2016 à 11:28
Citation Envoyé par Haseo86 Voir le message
C'est fatigant les batailles perpétuelles pour savoir qui a la plus grosse.
Je ne partage pas ton avis. Il faut savoir que l'apprentissage des réseaux de neurones est quelque chose de très couteux. On ne parle pas ici de réseau entraîné en quelques heures mais en semaine voir en mois. Pour info, Google apprend un modèle de langage en 3 semaines en utilisant 64 GPU. Donc dire que le hardware est 10%, 15% voir 20% plus rapide que les solutions précédentes, signifie quelques jours de gagné !

Citation Envoyé par Haseo86 Voir le message
C'est tellement simple de manipuler des chiffres pour leur faire dire ce qu'on veut
Merci de ne pas raconter n'importe quoi. Il explique tout dans leur papier : le toolkit utilisé (Caffe -- toolkit opensource) ainsi que le modèle appris (Alexnet). L'idée est de pouvoir reproduire leurs résultats. Si la communauté scientifique n'arrive pas à reproduire les résultats, l'image d'Intel en prendrait un sérieux coût. Intel ne s'amuserait pas à faire cela.

Citation Envoyé par Haseo86 Voir le message
personne ne devrait même accorder de l'intérêt à ce genre d' "étude" .
Et comme les réseaux de neurones sont actuellement utilisés dans de nombreux domaines de recherche (audio, vidéo et texte). Il y a énormément de personnes qui accordent de l'intérêt à ce genre d'étude. Mais pas toi a priori.
1  0 
Avatar de Haseo86
Membre éclairé https://www.developpez.com
Le 22/08/2016 à 18:32
C'est fatigant les batailles perpétuelles pour savoir qui a la plus grosse. C'est tellement simple de manipuler des chiffres pour leur faire dire ce qu'on veut, personne ne devrait même accorder de l'intérêt à ce genre d' "étude" .
1  1 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 23/08/2016 à 10:50
Citation Envoyé par Haseo86 Voir le message
C'est tellement simple de manipuler des chiffres pour leur faire dire ce qu'on veut, personne ne devrait même accorder de l'intérêt à ce genre d' "étude" .
Tout dépend.
Il arrive parfois, même si c'est assez rare que certains publient le code source des outils utilisés.
Là, on peut mieux se faire une idée en détail et même les reproduire chez soi en manipulant les paramètres.
0  0 
Avatar de LSMetag
Expert confirmé https://www.developpez.com
Le 23/08/2016 à 13:19
En même temps je trouve la réponse de Nvidia plus précise dans les faits ("c'était vrai il y a 18 mois, avec une ancienne version l'outil" que celle d'Intel ("nous faisons confiance à nos données".

Il vaudrait peut-être mieux faire faire les benchs par des organismes autres que les constructeurs eux-même...

On fait presque du People avec ces communications par "médias" interposés.
1  1 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2016 à 15:59
Citation Envoyé par Michael Guilloux Voir le message
son nouveau processeur Xeon Phi Knights Mill, optimisé pour le deep learning.
Je ne comprends pas cette affirmation.

Pour moi le deep learning, c'est un champ d'application qui est large c'est pas limité a des réseau de neurone et quand bien même, des réseau de neurone on peu en faire tout un tas de différents.

qu'entendaient t'ils par optimisé pour le deep learning ? ils ciblent une techno en particulier ?
0  1 
Avatar de Spleeen
Membre régulier https://www.developpez.com
Le 22/08/2016 à 16:10
Ah bon ? Le Deep Learning renvoie aux réseaux de neurones et tout le secret qui entoure les couches cachées... qu'est-ce tu vois d'autre sinon ?
Après je pense que pour toi les réseaux de neurone sont limités, ça c'est autre chose.
1  2 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 23/08/2016 à 11:40
Citation Envoyé par Spleeen Voir le message
Ah bon ? Le Deep Learning renvoie aux réseaux de neurones et tout le secret qui entoure les couches cachées... qu'est-ce tu vois d'autre sinon ?
Après je pense que pour toi les réseaux de neurone sont limités, ça c'est autre chose.
les reseau de neurones c'est une des technique de l'ia c'est pas la seules. et sinon que dirais tu de répondre a ma question plutôt que m'agresser gratuitement sans apporter quoi que ce soit d'utile a faire avancer le débat.. ???
0  1