La limite principale à l’épanouissement complet de l’intelligence artificielle est souvent la puissance de calcul et actuellement, ce sont les processeurs graphiques (GPU) qui fournissent la majeure partie de la puissance requise dans ce domaine.
Intel a profité de la conférence AI DevCon qui s’est tenue du 23 au 24 mai dernier au palais des beaux-arts de San Francisco, pour fournir plus détails sur le NNP-L1000 Nervana (NNP pour neural network processor), son futur processeur dédié aux réseaux neuronaux qui devrait permettre aux développeurs de tester et déployer plus facilement des modèles d’IA. Son nom de code est Spring Crest.
Spring Crest devrait succéder à Lake Crest, la première puce NNP du fondeur de Santa Clara, et constituer la première véritable offre commerciale de l’entreprise d’ici 2019. Ces puces devraient être 3 à 4 fois plus performantes que les NNP de la génération Lake Crest et prendre en charge le format numérique bfloat16. Pour ses NNP-L1000 Nervana, Intel envisagerait de mettre l’accent sur l’optimisation de la bande passante et de la latence plutôt que sur les valeurs relatives aux performances théoriques maximales.
Intel a beaucoup investi ces dernières années pour rattraper son retard dans ce domaine, allant même jusqu’à débaucher des spécialistes de la conception de microprocesseurs (GPU et CPU) chez ses principaux concurrents. En 2016 par exemple, elle a fait l’acquisition de Nervana Systems, une startup américaine basée à San Diego en Californie qui a développé une solution de deep learning. Le Machine learning, ainsi que son sous-ensemble le deep learning, constituent des méthodes clés pour étendre les champs d’application de l’intelligence artificielle et Intel a estimé que l’expertise de Nervana Systems dans l’accélération d’algorithmes de deep learning pourrait l’aider à accroître ses capacités dans le domaine de l’intelligence artificielle.
L’année dernière, le géant technologique a fait part de son ambition de concevoir des processeurs dédiés à l’apprentissage profond qui seraient jusqu’à dix-huit fois plus rapides que les GPU actuels et seraient inclus dans une nouvelle famille portant le nom de code « ;Lake Crest ;». Il a créé une division Core and Visual Computing dirigée par Raja Koduri avec pour objectif de devenir le leader de la conception de solutions graphiques tous azimuts et du calcul haute performance. Il a en outre recruté Jim Keller, le célèbre architecte de microprocesseurs à l’origine des micro-architectures K8 et Zen d’AMD ainsi que des SoC A4 et A5 d’Apple, et nommé ce dernier à la tête de sa division Silicon Engineering qui est chargée du développement et de l’intégration des SoC qu’il fabrique.
Intel propose maintenant une gamme assez large de produits donnant de très bons résultats pour l’apprentissage profond : depuis les processeurs « ;standard ;», pouvant effectuer n’importe quel type de calcul (Core, Xeon), jusqu’à ces cartes hyper spécialisées (Lake Crest), en passant par les Xeon Phi (orientés calcul très parallèle, avec de très nombreux cœurs) et les FPGA Arria 10 (processeurs reconfigurables). La firme a d’ailleurs prévu d’étendre de manière progressive le support du format numérique bfloat16 à ses solutions Xeon et FGPA.
Source : NewsRoom Intel
Et vous ?
Qu’en pensez-vous ?
Voir aussi
FUJITSU annonce le développement d'un processeur pour l'apprentissage profond, il dépasserait largement la concurrence en efficacité énergétique
Intel rend open source nGraph, un compilateur de réseau neuronal pour résoudre le problème de compatibilité entre les frameworks deep learning
Deep learning : NVIDIA s'attaque aux résultats de benchmarks d'Intel, qui présentaient les CPU Xeon Phi plus performants que les GPU Maxwell
Spring Crest devrait succéder à Lake Crest, la première famille de puces d'Intel dédiée aux réseaux neuronaux,
D'ici 2019 avec le NNP-L1000 Nervana
Spring Crest devrait succéder à Lake Crest, la première famille de puces d'Intel dédiée aux réseaux neuronaux,
D'ici 2019 avec le NNP-L1000 Nervana
Le , par Christian Olivier
Une erreur dans cette actualité ? Signalez-nous-la !