IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intel précise les nouveautés des Xeon Cascade Lake
Des protections matérielles contre Spectre et des instructions pour les réseaux neuronaux

Le , par dourouc05

140PARTAGES

12  0 
Fin d’année, Intel devrait nous gratifier d’une nouvelle génération de processeurs, dénommée Cascade Lake, déclinée notamment côté serveur avec ses Xeon (on devrait voir Cooper Lake en 2019 et Ice Lake en 2020, selon les plans actuels). Lors de la conférence Hot Chips, la société a pris un peu de temps pour détailler ce que l’on verra avec cette nouvelle architecture.

Rapidement : des instructions spécifiques à l’apprentissage profond (en réutilisant les unités AVX-512) et des protections matérielles contre certaines failles de type Spectre/Meltdown. Pour le reste, Cascade Lake reste très similaire à Skylake : maximum vingt-huit cœurs, maximum 38,5 Mo de cache de dernier niveau (L3), maximum trois canaux UPI pour la communication avec d’autres processeurs sur la même carte mère, maximum quarante-huit canaux PCIe, maximum six canaux de mémoire. Il s’agit donc principalement d’une amélioration incrémentale sur bon nombre de critères, c’est-à-dire que Cascade Lake pourra monter un peu plus haut en fréquence et consommer un peu moins d’énergie, par exemple.

Côté sécurité

Ce dernier point est particulièrement important : les protections actuellement mises en place ont un impact mesurable sur la performance, bon nombre d’entreprises semblent prêtes à payer le prix fort pour obtenir un processeur protégé contre ces vecteurs d’attaque. Alors que, pour les processeurs actuels, les protections ne peuvent être implémentées qu’au niveau logiciel (du système d’exploitation, notamment, avec un coût en performance non négligeable) ou dans le microcode, pour Cascade Lake, Intel prévoit une implémentation aboutie au niveau de la microarchitecture du processeur — sans impact sur la performance.

Sur les six types d’attaque, trois seront donc traitées directement au niveau matériel : Spectre variant 2, Meltdown (Spectre variant 3), L1T (L1 terminal fault, Spectre variant 5). Trois vecteurs nécessitent toujours un système d’exploitation à jour : Spectre, Spectre variant 2, Spectre NG (Spectre variant 4) — l’impact en performance pourrait être marqué.

Cascade Lake ne marquera donc probablement pas la fin des efforts d’Intel sur la sécurité, surtout que des failles de cette famille (toutes exploitent le mécanisme d’exécution spéculative, à l’œuvre dans tous les processeurs performants actuels) sont découvertes régulièrement.


Côté réseaux neuronaux

Avec le rachat d’entreprises actives spécifiquement dans le domaine des processeurs d’accélération pour l’apprentissage profond et la vague marketing à ce sujet, il eût été étonnant que ces processeurs n’aient rien de spécifique à ce sujet. Intel précise donc que Cascade Lake ajoutera un jeu d’instructions dédié : VNNI (vector neural network instructions). Techniquement, VNNI est une extension d’AVX-512, des instructions prévues pour fonctionner de manière vectorielle, c’est-à-dire qu’elles effectuent la même opération sur plusieurs valeurs à la fois.

Sur une génération, Intel annonce une augmentation de débit d’un facteur 5,4 (entre Skylake et Cascade Lake, donc) pour l’inférence avec Caffe sur une architecture de réseau neuronal résiduel profond (ResNet 50, très utilisée en reconnaissance d’images). Cela ne signifie pas qu’une inférence prend cinq fois moins de temps, mais qu’un processeur peut effectuer cinq fois plus d’opérations d’inférence sur le même temps (notamment parce que le processeur effectue plusieurs inférences à la fois).


Ce facteur s’explique aussi par des améliorations au niveau logiciel et une réduction de la précision lors des calculs, même si Intel préfère mettre en avant deux instructions en particulier : VPDPBUSD et VPDPWSSD. Elles servent à fusionner plusieurs instructions utilisées lors d’une convolution (l’opération de base pour le traitement d’images dans les réseaux neuronaux), avec des opérations de type addition-accumulation.


Source et images : Intel at Hot Chips 2018: Showing the Ankle of Cascade Lake.

Une erreur dans cette actualité ? Signalez-nous-la !