IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le CPU Core i9 de 28 cœurs annoncé par Intel a été surcadencé pour atteindre 5 GHz :
Ce qu'il faut savoir sur la puce du fondeur

Le , par Bill Fassinou

144PARTAGES

9  0 

Intel, la grande entreprise américaine spécialisée dans la fabrication des semi-conducteurs a annoncé au début du mois de juin qu’elle travaille sur un processeur de la série Core i9 embarquant jusqu’à 28 cœurs et pourrait attendre une fréquence de 5 GHz. La nouvelle puce afficherait un score de 7334 sur le benchmark Cinebench. Elle était prévue pour la fin de cette année 2018. Mais Intel a oublié de mentionner un détail important. Les processeurs 5 GHz ont été surcadencés, c'est-à-dire qu'ils ont été manipulés pour augmenter la fréquence du signal d'horloge au-delà de la fréquence nominale.

Sorties de l'usine, ces puces ne sont pas à 5 GHz de fréquence et un système complexe de refroidissement capable de supporter des charges thermiques jusqu'à 1,77 kW est nécessaire pour pouvoir les faire tourner à une telle vitesse. Intel a confirmé un autre fait sur ces puces 28 cœurs. Ils sont construits sur une variante de son processeur de 14 nm. Ils utilisent aussi l'énorme prise LGA3647 qui dispose de 3647 pins et qui est utilisée par certains processeurs Xeon. Ils ont six canaux de mémoire. On ignore avec quel chipset et sur quelle plateforme il sera déployé et quelle sera sa vitesse d'horloge normale. On ne peut que faire des spéculations et la plus vraisemblable est que ces puces seraient de la famille Skylake-SP qui est une variante du noyau Skylake conçu pour les processeurs de plus de huit cœurs.

Les cœurs sont disposés sous forme de grille au lieu d'un cercle. Cela fournit une meilleure mise à l'échelle au fur et à mesure que le nombre de cœurs augmente. Il existe trois matrices Skylake-SP : LCC, HCC et XCC pour un petit, grand et très grand nombre de cœurs avec respectivement 10, 18 et 28 cœurs. À l'heure actuelle, il y a des processeurs Xeon-SP qui utilisent les trois variantes de Skylake-SP. Les processeurs Skylake-X (utilisés pour les plateformes X-Series) n'utilisent actuellement que les matrices LCC et HCC. La nouvelle puce pourrait être de la famille Skylake-X et utiliser la matrice XCC. C'est aussi possible que ce ne soit pas Skylake-X, mais plutôt Cascade Lac-X.

Source : anandtech

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Intel prépare un CPU Core i9 de 28 cœurs pouvant monter jusqu'à 5 GHz AMD veut enterrer la concurrence avec un ThreadRipper à 32 cœurs

Intel prépare ses pilotes pour l'arrivée de ses GPU distincts une première étape dans la concrétisation de son ambition de conquérir le marché

Intel annonce de nouvelles fonctionnalités de processeurs pour aider l'industrie à améliorer la détection des menaces de sécurité avancées

Les processeurs Intel x86 souffriraient d'un défaut qui exposerait la mémoire noyau et impacterait surtout sur le marché serveur

Les futurs CPU Xeon Ice Lake d'Intel se dévoilent 10nm, nouveau socket LGA4189, plus de cœurs, TDP en hausse et support de huit canaux mémoires

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de onilink_
Membre émérite https://www.developpez.com
Le 12/06/2018 à 9:56
Non mais de toute façon y a pas de questions à se poser sur la puissance. Si jamais ce n'étais pas utile maintenant (et perso je trouve cette idée biaisée), ce sera utile quand ça deviendra le standard car la majorité des programmes seront conçus pour ce genre d'archi. Plus de puissance ça permettra aussi à certains trucs cantonnés au domaine pro de toucher le public.

Y a qu'a voir le deep learning, y a une époque c'était inimaginable de pouvoir faire tourner un gros réseau de neurones chez soit (ne parlons même pas de l'apprentissage), maintenant la moindre carte graphique à plus de 200€ peut faire tourner des trucs totalement fous. Et la on ne peut plus dire que ça n'a pas d'application ou que c'est inutile, même si a une époque j'imagine qu'on se doutait pas forcément des possibilités jusqu'à y avoir accès.

La vrai question c'est surtout: est-ce que ce genre d'archi pourra se démocratiser, au niveau des coûts de fabrication?
Parce que perso, je suis pas du genre à mettre plus d'argent dans mon CPU que dans ma carte graphique. Après tout dépend du besoin... mais pour la majorité je pense que c'est plus ou moins comme ça que ça fonctionne
(et dans mon cas, vu que je compile a longueur de journée de grosses bases de code C++, ça m'est très utile d'avoir beaucoup de cores).
5  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 11/06/2018 à 18:00
Citation Envoyé par berceker united Voir le message
Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
Je pense qu'on pouvait dire la même chose pour chaque grosse évolution, que ce soit de PC ou consoles. Mais au final plus de puissance permet plus de possibilité, donc ça finis par être utilisé jusqu'à devenir le standard.

Pendant longtemps les langages étaient surtout pensé pour un seul core. Maintenant la concurrence est quand même pensée dès la base (je pense notamment a Rust).
Au final y a pas tant d'algos utiles que ça qui sont impossible a multithreader.
Tout ce qui est rendu 3d, traitement audio, traitement vidéo, deep learning, ça marche toujours mieux sur plusieurs cores.
Y a qu'a voir l’essor des cartes graphiques qui est totalement basé sur ça, beaucoup beaucoup de parallélisme mais à faible puissance.

En tout cas outre le domaine pro ce sera très utile pour les technos liées au jeu vidéo.
Y a pas mal d'éléments d'un jeu qui demandent beaucoup de calculs et peuvent être calculé sur plusieurs threads (par exemple la physique, l'IA).

Ça va rendre l'effort de rendre son jeu/programme multithread de plus en plus intéressant, jusqu'au moment ou le standard ce sera les applis qui tournent sur au moins 8 threads ou plus.
Bon, le côté négatif c'est qu'on va voir des technos ultra gourmandes inutilement émerger et être utilisées en masses, mais on peut pas tout avoir (coucou node.js, electron ...).
3  0 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 11/06/2018 à 13:53
Mon ressentie sur ce cpu quand je l'ai vu au computex :
la solution d'intel semblait encore être un prototype non finalisé
a l'inverse de celui d'amd, le threadripper2 32coeurs semblait lui par contre fini et commercialisable le jour même

Cela vas être une vrai guerre, qui des 2 monstre sera le plus puissant en applicatif multicœur, AMD avec 4 coeurs en plus ou intel avec je pense une fréquence plus élevée ?
parceque finalement c'est sa la seul question qui compte dans ce genre de duel, avoir la plus grosse

et ce genre de duel me réjouit car il ne fait aucun doute que ces cpu représente l'avenir du pc fixe grand publique. Le point important a noté c'est qu'intel/amd vendent des cpu 28/32coeurs aux grand publique ce n'est plus un marché réservé aux serveur (gamme Xeon/Epyc)
3  1 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 11/06/2018 à 16:55
la retouche video, l'encodage, la cao/pao, flight simulator X,...
2  0 
Avatar de epsilon68
Membre expérimenté https://www.developpez.com
Le 11/06/2018 à 22:58
ok mais est-il safe? (rappelez vous les recents problemes de securité)
2  0 
Avatar de ext13
Membre régulier https://www.developpez.com
Le 15/06/2018 à 10:20
Citation Envoyé par danyclassique Voir le message
De toutes les manières dans un avenir proche les ordinateurs vont être obligés de changer totalement leurs architectures grâce ou à cause de la venue de la mécanique cantique qu’ils sont déjà en train d’adapter pour le développement. Alors je sais pas si le nombre de cœur sera l’objectif principal à atteindre mais plutôt celui d’une tout autre gestion des états , car ça ne sera plus 0 ou 1 mais , 0 ou 1 ou 2 le 2 indiquant l’état du peut-être 0 ou 1 . Oui les ordinateurs binaires ne seront plus binaires
Clairement pas dans un futur proche ! L'avenir pour l'informatique conventionnelle est le Die Stacking. Il s'agit de superposer les circuits pour faire des architectures 3D (ça existe déjà avec la mémoire HBM des cartes graphiques AMD). L'un des enjeux majeur de ces 10 prochaines années est de trouver une bonne manière de dissiper la chaleur tout en ayant une efficacité par watt supérieure. L'avenir de l'informatique passe aussi par plusieurs circuits spécialisés complémentaires (intelligence artificielle notamment). Pour le grand publique la puissance des appareils pourra être déportée dans le cloud pour certains usages (jeux vidéos sauf fps, developpement, traitement photo et vidéo), il faudra attendre que le très haut débit se généralise cependant.

Pour le moment les ordinateurs quantiques ont des usages de niche et de recherche (notamment dans le chiffrement) et ne sont pas à même de remplacer l'informatique tel que connu aujourd'hui.
2  0 
Avatar de
https://www.developpez.com
Le 12/06/2018 à 9:06
Citation Envoyé par epsilon68 Voir le message
ok mais est-il safe? (rappelez vous les recents problemes de securité)
Au minimum son microcode est a jour pour Spectre et Meltdown, au mieux les failles sont corrigées dans l'archi.

Citation Envoyé par Namica Voir le message
+1
Pour des jeux, moi, je m'en fout un peu, cela ne m'intéresse guère. Mais pour d'autres applicatifs cette interrogation prend tout son sens.
Quelqu'un a-t-il déjà creusé les sources de l'article à propos de cet aspect ? Cela m'intéresse.
Pas sur qu'un 28C soit vraiment utile pour du jeux vidéo, sauf si c'est pour compiler
1  0 
Avatar de wolinn
Membre éprouvé https://www.developpez.com
Le 12/06/2018 à 9:21
Citation Envoyé par berceker united Voir le message
Je suis étonné que ce type de cpu puisse exister même si c'est le naturel des choses. Le marché du PC est en baisse et à titre personnel je constate que les gens utilisent de moins en moins d'applications lourdes sur leurs ordinateurs hormis le faite que certain navigateur sont très gourmand en mémoire de manière totalement inexpliqué pour le simple mortel.
Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
Pour les usages domestiques, c'est peut-être bien largement suffisant, mais en CAO et simulation physique pour l'ingénierie, il n'y a jamais assez de puissance de calcul.
Je n'ai pas de problème pour mettre à genoux une station bi-xeon 2*22 coeurs avec mes simulations, même en ayant déployé toutes les ruses pour optimiser les algorithmes, et le calcul en réseau pour essayer de dépasser ces limites, c'est quand même un peu pénible et source de complications.
A temps de calcul constant, plus on a de puissance, plus les simulations peuvent être précises.
1  0 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 12/06/2018 à 12:40
pour un besoin occasionnel tous le monde le fait déjà et loue un serveur a la demande a Amazon,MS Azure...etc.

Mais pour un besoin quotidien ou pour des cas particulier (projet top secret, hardware très spécifique...), c'est plus rentable d'acheter une workstation/serveur
1  0 
Avatar de Steinvikel
Membre expert https://www.developpez.com
Le 13/06/2018 à 8:40
Citation Envoyé par berceker united Voir le message
(...) à titre personnel je constate que les gens utilisent de moins en moins d'applications lourdes sur leurs ordinateurs (...) Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?
Citation Envoyé par onilink_ Voir le message
(...) au final plus de puissance permet plus de possibilité, donc ça finis par être utilisé jusqu'à devenir le standard.
(...) Au final y a pas tant d'algos utiles que ça qui sont impossible a multithreader.
Tout ce qui est rendu 3d, traitement audio, traitement vidéo, deep learning, ça marche toujours mieux sur plusieurs cores.
(...)
Y a pas mal d'éléments d'un jeu qui demandent beaucoup de calculs et peuvent être calculé sur plusieurs threads (par exemple la physique, l'IA).
Citation Envoyé par foetus Voir le message
Il y a surtout un point important : c'est la gestion des caches partagés et la communication entre les cores (on parle de trois matrices Skylake-SP : LCC, HCC et XCC).
Le fait que les applications lourdes sur PC soient de moins en moins lourdent, le sont pour 2 raisons principales :
1) Une appli lourde il y a 10ans ou plus, ne l'es plus forcément aujourd'hui. Tous les usages n'engendrent pas un besoin de croissance de calcul linéaire avec les années, mais plutôt un palier de confort à franchir.
2) Le "service web" s'est démocratisé avec internet, et les avantages qu'il a apporté, c'est d'utiliser une puissance de calcul autre pars que sur sa machine, et par conséquent se libérer de certains désagréments liés à une installation et sa maintenance, des limitation matériels... en plus de la résilience des données.
Ces appli ne sont pas moins nombreuses (en terme d'offre sur le marché), mais on en retrouve moins sur un même PC, et le critère de "lourd" est relatif, il est souvent relatif à la puissance de calcul disponible en moyenne, et non en valeur absolue (de ressource utilisé /quantité de données traité). Et pour finir bien des appli profitent d'optimisations de leur algorithme ou de l'environnement de développement, qui en améliore de facto leur efficacité.

Au-delà de ça, certaines appli n'étaient pas amené à devenir gourmande, et par la disponibilité de ressources toujours croissante, n'ont pourtant cesser d'intégrer plus de fonctionnalités, ou d'enrichir le résultat qu'elles produisent. Dans certains cas, aujourd'hui où tu utilise une applis pour un besoin, tu en utilisais plusieurs avant.
onilink_ , détrompe-toi, ça marche pas toujours mieux sur plus de coeur... l'arrivée Ryzen et ses 8 coeurs, à permis d'observer que de rares logiciels refusaient tout simplement de démarrer sur des CPU de plus de 4 coeurs (Ryzen 7 avec 4 coeurs désactivés sur 8 et c'était de nouveau opérationnel).

"Si hors utilisation serveur, marché de niche ?"
Dès qu'il est question de graphisme "haut de gamme" ou de logiciels de "production", tu peux être sûr que la question sur la puissance dispo d'un CPU est primordiale, et éliminer les i3 et compagnie. S'il y a aujourd'hui des fréquence max à 4-5 GHz sur plusieurs coeurs, c'est parce qu'un équivalent mono-coeur à fréquence suppérieur est moins "efficace" énergétiquement, de plus l'architecture multi-coeur apporte une souplesse/polyvalence dans le traitement. Les PC à 1500€ (de matière brut) son plus courant que tu ne le pense, en entreprise ou chez les particuliers (parfois auto-entrepreneur).

Citation Envoyé par 23JFK Voir le message
Bof. A un moment donné, pour un utilisateur lambda, le nombre de coeurs n'apporte plus d'amélioration en utilisation. Augmenter la fréquence d'horloge des coeurs redevient plus intéressant pour accélérer des traitements récurrents qui ne seront jamais parallélisables.
Malheureusement on ne peut pas être aussi catégorique. Certains logiciels semblent s'appuyer sur la fréquence, d'autres sur les coeurs, d'autres misant sur les jeux d'instructions.
Pour StockFish par exemple (une IA d'échec), le nombre de coeurs prime fortement sur la fréquence en terme de gains... et le SMT d'AMD (Hyper Threading pour intel) est plus efficace sur un processeur avec peu de coeur. http://www.hardware.fr/focus/121/influence-nombre-coeurs-smt-ryzen.html
- le choix du modèle de CPU intégrant les instructions les plus efficaces pour le logiciel visé (ce seul point justifie des écarts de performance jusqu'à 50% dans certain cas... autre que StockFish)

Citation Envoyé par ShigruM Voir le message
(...) pleins de programme sont mal paralléliser parce que les dev ne le font pas car personne n'a de cpu > 4coeurs
(...) Moi je vois que depuis qu'AMD a démocratiser le 8coeurs/16threads, tous les nouveaux jeux exploite bien mieux les cpu 8coeurs
(...) Si dans le futur nous avons des cpu 32coeurs, les dev vont peut etre enlever des calculs comme la physique du gpu pour exploiter le cpu 32couers, cela libérera des ressources gpu pour atteindre plus facilement la 8K
Entièrement d'accord avec toi. Tu sais pourquoi l'usage du nombre de coeur maximal n'est pas déterminé par l'OS, mais des différentes étapes de développement ?
Ca m'a toujours intrigué --> permettre à un programme (dans sa conception je parle) un usage d'une capatité de mémoire illimité, de thread illimité, mais pas de sappuyer sur un nombre de coeur illimité. Quelle est la cause de cette limitation ? quelqu'un sait ?

Citation Envoyé par dantes94 Voir le message
Pas sur qu'un 28C soit vraiment utile pour du jeux vidéo, sauf si c'est pour compiler
Qui peux le plus peux le moins. Faut seulement voir sur combien d'années tu te projette et la "modularité" de ton porte-feuille ! x)
1  0