IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intel confirme l'arrivée de GPU AMD dans ses CPU de 8e génération KBL-G :
Au moins deux références, HBM2 et EMIB à découvrir

Le , par Christian Olivier

199PARTAGES

8  0 
L’entreprise technologique Intel vient officiellement d’annoncer qu’elle est en train de mettre au point de nouveaux processeurs qui, à terme, permettront de combiner des cœurs x86 haute performance de la marque avec des puces graphiques Radeon d’AMD au sein du même package. Ces nouveaux processeurs feront partie de la 8e génération de CPU du fondeur américain.

Pour ce faire, Intel a prévu d’exploiter sa technologie multipuce EMIB (Embedded Multi-die Interconnect Bridge). Le fondeur de Santa Clara a également précisé que ses futurs processeurs profiteront de la dernière technologie de mémoire à bande passante élevée développée par AMD et Hynix : la HBM2 (High Bandwidth Memory). Les premières fuites apparues sur la toile font état d’au moins deux références : un Core i7-8809G (3,1 GHz/3,7 GHz) et un Core i7-8705G (3,1 GHz/4,1 GHz). Les versions Engineering Sample de ces processeurs ont déjà fait leur apparition dans certains Benchmarks comme Geekbench, Ashes of the Singularity (le jeu) ou 3DMark 11 Performance.


Ces processeurs devraient permettre à Intel de proposer des alternatives aux solutions actuelles qui composent son catalogue destiné aux ordinateurs portables « puissants ». Ces derniers embarquent le plus souvent un circuit graphique peu performant et un CPU Core i de la série « ;H ;» avec une TDP limitée à 45 watts. Malheureusement, ces solutions restent insuffisantes pour répondre aux besoins de certaines niches où les utilisateurs sont très exigeants, en matière de performances graphiques et de design extérieur notamment (MacBook par exemple).

Pour obtenir des solutions graphiques plus performantes qui seront intégrées à ses CPU, Intel a signé un accord de licence croisée avec NVIDIA en 2011. Cet accord devait expirer à partir du 1er avril 2017, mais aucune mention de prolongation de cet accord n’a jusqu’alors été rendue publique. Ces derniers mois, des rumeurs laissaient entendre qu’Intel songeait à nouer un nouveau partenariat avec AMD, plutôt qu’avec NVIDIA, pour la conception des circuits graphiques de ses futurs processeurs.

Dans son communiqué, Intel a confirmé ces rumeurs et précisé que le nom de code de ces futurs processeurs serait KBL-G. Ce serait en gros des CPU de la série « ;H ;» dont le die ressemble fortement à un ceux utilisés par les CPU de la même série sur Skylake et Kaby Kake (4 cœurs/8 threads). Côté GPU, Intel évoque un design personnalisé qui pourrait se baser sur un produit de la génération Vega ou Polaris d’AMD. Il serait question d’un dGPU (GPU dédié) cadencé à 1-1,1 GHz disposant de 24 CU (Compute Unit) et de 1536 stream processors (contre 10 CU pour Vega 10). La mémoire HBM2 sera ajoutée pour booster les performances de la puce graphique. Il devrait s’agir d’une puce mémoire de 4 Go interfacée en 1024 bits et qui sera cadencée à 700 ou 800 MHz en fonction du modèle du CPU.


Pour l’heure, aucun produit du catalogue des GPU fourni par AMD ne fait état de puces graphiques dédiées pouvant être exploitées avec la technologie EMIB d’Intel. Le principal avantage de cette approche est une économie d'énergie et des augmentations de performance significatives par rapport aux GPU intégrés traditionnels d’Intel qui utilisaient une technologie sous licence de NVIDIA. Plus de détails concernant ces KBL-G devraient être fournis au premier trimestre 2018, probablement pendant le CES qui se tiendra à Las Vegas en janvier prochain.

L’EMIB d’Intel pourrait être considéré comme un lien de communication physique reliant deux dies montés sur le même substrat multipuce. Les puces concernées partageront donc le package au lieu d’être intégrées sur le même die. Cette technologie peut être utilisée pour découpler les émetteurs-récepteurs d’E/S ou, de façon plus générale, comme une interconnexion haute vitesse permettant d’atteindre des débits de l’ordre de plusieurs centaines de giga-octets par seconde.

Intel exploite déjà sa technologie EMIB pour la conception de ses circuits logiques programmables (FPGA ou field-programmable gate array), le dernier en date étant baptisé Stratix 10. Il est basé sur la technologie d’Altera. Ce processeur est capable de traiter les algorithmes de l’apprentissage machine et il est surtout destiné à la réalisation de tâches serveurs ou réseaux spécialisées. Intel a utilisé sa technologie EMIB lors de la conception de ses circuits logiques programmables, pour connecter le silicium du FPGA avec des « ;tuiles de connectivité ;» afin de fournir des E/S haute vitesse hors de la puce FPGA.


Intel a opté pour le design EMIB pour la conception de ses KBL-G, car ce procédé est censé faciliter la mise au point de processeurs qui embarquent sur le même substrat des puces de nature différentes. Il n’est pas nécessaire que ces dernières bénéficient de la même finesse de gravure pour qu’elles puissent être combinées. Il serait, ainsi, possible d’associer sur le même package des puces x86 hautes performances avec des puces basse consommation et des circuits graphiques plus robustes fabriqués à partir de cœurs différents.

D’après Intel, cette technologie devrait permettre de combiner plusieurs architectures sur un même package afin de concevoir des processeurs atypiques tout en réduisant par quatre la latence observée sur les processeurs exploitant des designs multipuces traditionnels. Il faut rappeler que, dans le cas d’un design multipuce traditionnel, les connexions sont gravées dans le substrat sur lequel sont montées les puces. L’inconvénient de ce design de fabrication est qu’il limite la quantité et la vitesse des connexions qu’il est possible d’obtenir.


Plutôt que d’utiliser un interposeur en silicium pour relier les substrats, un procédé très onéreux qui permet d’obtenir des densités et des performances plus élevées, la technologie EMIB d’Intel autorise un remaniement plus simple de la structure du processeur au niveau du silicium lui-même sans pour autant sacrifier les performances globales du produit final.


AMD a récemment dévoilé ses APU Ryzen destinés aux plateformes mobiles (TDP comprise entre 9 et 25 Watts). Ces derniers embarquent quatre cœurs physiques (huit threads) et un circuit graphique Vega plus performant que celui des anciennes déclinaisons. Mais jusqu’ici, AMD semble faire l’impasse sur le marché des processeurs pour mobiles avec une TDP limitée à 45 Watts et on pourrait se demander pourquoi le fondeur fabless de SunnyVale ne se décide toujours pas à proposer des APU équivalents à ces KBL-G sur son catalogue alors qu’il en a les moyens.


Source : AnandTech, WccfTech, NewsRoom Intel, Intel EMIB

Et vous ?

Qu’en pensez-vous ?
Est-ce que NVIDIA pourrait ou devrait se sentir menacé par ce rapprochement entre AMD et Intel sur le marché des laptops de jeu ?

Voir aussi

Ice Lake, la prochaine génération de processeurs d'Intel (la 10e), devrait être gravée à 10 nm+, et sa sortie est prévue pour 2018/2019
Intel lance ses processeurs Desktop de 8e génération pour contrer les CPU Ryzen d'AMD : fréquences plus élevées, plus de cœurs/threads et 14 nm

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Aurelien.Regat-Barrel
Expert éminent sénior https://www.developpez.com
Le 03/01/2018 à 13:40
Citation Envoyé par Kikuts Voir le message
Sur un smartphone, 8 core, c'est utile. Sur desktop ? Euh...
Qui aurait cru lire quelque chose comme ça il y a quelques années ? Après le dev Java qui devient du dev natif, le javascript qui devient un langage serveur, les smartphones deviennent plus puissant que les desktop. C'est fascinant comment les choses peuvent évoluer !
3  0 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 07/11/2017 à 12:15
La rumeur a aussi couru que cette solution serait plus prévue pour Apple que le grand public, Intel aurait peut-être été forcé à suivre cette voie (sous peine de perdre le marché Apple à AMD).
1  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 07/11/2017 à 10:34
cela ne me surprend guerre...
déjà car cette rumeur circule depuis quelques mois maintenant
Mais surtout car intel n'a jamais fait de gpu/APU correcte... Ils ont toujours été a la traîne face à la concurrence en comparant les APU d'amd et les petit gpu de Nvidia (évidement que je compare pas les Igou au Vega64/GTX1080 mais bien a des gtx M comme la 1050 ou les APU serie A d'amd)

Mais vue les évolutions technologique d'intel ces dernières années dans leurs cpu (c'est a dire.... aucune). Je serais pas étonné que les prochains cpu embarque des cœurs ZEN Nous sortir la même archie depuis 5ans avec juste 5% de perf en + chaque années...

Je vois bien l’intérêt d'AMD dans cette arrangement (rendre vega rentable) mais je vois pas trop pour Intel ? car Intel donne de l'argent a son concurrent qui pourra le dépenser en R&D.
J'aurais plutôt vue Intel racheté Imagination ou faire un arrangement avec un autre acteur moins gênant pour intel.

Cela dit c'est pas forcément une bonne nouvelle pour nous les consommateurs car cela donne à AMD un monopole sur les APU. Et les monopoles c'est pas bon.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 07/11/2017 à 12:25
Citation Envoyé par Christian Olivier Voir le message
Qu’en pensez-vous ?
C'est chouette qu'Intel souhaite utilisé des puces graphiques Radeon dans leur processeurs.

Citation Envoyé par Christian Olivier Voir le message
Est-ce que NVIDIA pourrait ou devrait se sentir menacé par ce rapprochement entre AMD et Intel sur le marché des laptops de jeu ?
Bof.
Peut être qu'un jour Intel utilisera des puces graphiques nvidia dans ces processeurs pour laptop...
C'est pas parce qu'une fois tu passes par AMD que tu resteras avec AMD pour toujours.

C'est comme Apple qui passe par Samsung pour ses écrans, ou quelque chose comme ça.
Parce que là technologiquement Samsung gère le truc j'imagine, mais ce ne sera pas forcément toujours le cas.

Si à l'heure actuelle AMD est le meilleur en puces graphiques, il n'y a pas de mal à passer par eux.
0  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 03/01/2018 à 9:19
dommage que les I7 n'ai toujours pas 8 coeurs 16 threads, c'est quand même devenue la norme les octocore dans les téléphones, les consoles, les ryzens 7... et ne me parler pas des "I9" s'il vous plait...

sinon quelqu'un peut me dire l’intérêt de 2 gpu intégré au cpu ?
Déja que l'igp en desktop sert souvent à rien car on a déja un gpu dédié amd/nvidia, mais 2 ???
Si c'est pour réduire la consommation électrique aucun intérêt car on est sur du desktop, le gain de puissance sera de 0 car aucune applie n'exploiteras les 2 gpu en parallèle. Pourquoi ne pas avoir virer l'igp et garder seulement le vega ? sa aurait couté moins cher en plus.
0  0 
Avatar de Kikuts
Membre éprouvé https://www.developpez.com
Le 03/01/2018 à 11:42
Citation Envoyé par RyzenOC
Déja que l'igp en desktop sert souvent à rien car on a déja un gpu dédié amd/nvidia, mais 2 ???
Si c'est pour réduire la consommation électrique aucun intérêt car on est sur du desktop, le gain de puissance sera de 0 car aucune applie n'exploiteras les 2 gpu en parallèle. Pourquoi ne pas avoir virer l'igp et garder seulement le vega ? sa aurait couté moins cher en plus.
J'aimerai réagir à tes propos : premièrement sur le GPU dédié. Pour tout ceux qui doivent utiliser des VM, je pense qu'il doit y avoir un intérêt (exemple : tu dev une universal app, si ta VM n'a pas d'adapter 3D dans les settings, tu n'auras pas les shadow, les derniers effets de transparence etc). Pourquoi ne serait il pas possible d'avoir 2 GPU, un spécialisé dans le traitement des animations de base de l'OS et un GPU pour les besoins de l'utilisateur (gaming, montage etc). De cette manière on aurait l'OS qui tourne nickel même avec des traitements lourds qui tournent en tâche de fond.

Tu parles de proc 8 cœurs 16 threads. Si les développeurs utilisaient le parallélisme etc, pourquoi pas ! Mais pourquoi avoir 8 cœurs, 16 threads, quand dans 90% des cas, tu vas utiliser 2 à 4 threads max et que le reste va se la toucher ? Exemple dans visual studio : build un énorme projet c++, le linkage utilise un seul thread. Donc même avec 1000 core, tu n'iras pas plus vite. Il y a souvent des goulets d'étranglement qui rende le surnombre de CPU inutile... Donc si tu n'as pas le besoin d'avoir 10 VM ouverte en même temps, où est l'intérêt ?

Sur un smartphone, 8 core, c'est utile. Sur desktop ? Euh... Il n'y a pas toute la panoplie de capteurs : empreinte, iris, gyroscope, gps, 4G, luminosité etc etc etc.

Je préfère un dual core ultra puissant qu'un octo core qui se déplace à pied
La réduction de conso électrique, c'est toujours bien. On doit encourager ce genre d'initiative au lieu de dire "on s'en fou on est sur desktop". Comme on dit, il n'y a pas de petite économie !

PS : j'ai sûrement dis des bêtises, je suis pas un as de l'hardware ^^
0  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 03/01/2018 à 12:49
1) Faire un gpu dédié à l'animation de base de l'OS c'est inutile. sa consomme tellement peu de ressource que je ne vois pas l’intérêt d'une puce spécialisé par rapport au surcout que cela engendre dans la fabrication du cpu. 1 seul IGP suffit pas besoin de 2.

2) Moi j'ai un zyzen 1700 et je peut te dire que oui je les utilisent mes 8 coeurs !
Quand je compile avec gcc mes 8 coeurs tourne à 100%, on est loin du "1 thread". Compile le noyau linux pour t'en rendre compte.
Pour ma part je développe chaque jour des programme multicœurs et si tu veut des applie grand publique c'est pas sa qui manque. Firefox/chrome peuvent exploiter les 8coeurs, meme chose avec MS office 2016 qui est lui aussi très bien paralléliser.
En jeu, les 8coeurs sont l'avenir, le dernnier AC montre bien que le jeu tourne mieu sur 8c/16t que sur 4c/8t.
Sur smartphone et sur console tu as 8coeurs, les dev sont donc amené a repenser leurs logiciels pour essayer de tirer partie au maximum de ces 8coeurs. Les API, librairies et moteurs 2D/3D étant les même (niveau code) sur pc/console/smartphine, il est donc plus intelligent d'investir dans un 8c que sur un 4c.

enfin un cpu 8c permet de faire plus de chose à la fois que sur un cpu 4c. Par exemple tu peut jouer et faire du surf de manière fluide et sans impacter les perf de ton jeu video.

On parle de CPU I7, le haut de gamme intel donc, si tu n'a pas besoin d'un cpu puissant, achète un I3 dual core. Le I7 c'est censé être le meilleur cpu grand publique d'intel (si j'exclue les I9 qui sont sortie à l'arrache juste pour essayer de concurrencer les ryzen). Pour un cpu qui coute plus de 300€ j'ai le droit de m'attendre à autre chose qu'un pauvre 4coeurs comme ils en font depuis 7ans. surtout pour un cpu desktop qui n'a pas de problème de consommation et de chauffe.

petite parenthèse aussi, cette année VIA vas relancer des cpu x86, dont le KX5000 qui sera un octocore.
En gros tous le monde fait des cpu 8coeurs sauf intel. Maintenant on est bien d'accord que 8coeurs sur desktop c'est pas pour faire juste du surf sur internet mais encore une fois, la news parle des cpu les plus haut de gamme d'intel les I7 pas des atom/celeron.

et encore que les atom/celeron sont tellement pourrie et inutilisable sous windows que 8 coeurs sa leurs ferais pas trop de mal. Sa rendra pas les apps peu multithreadé plus rapide mais sa rendra l'utilisation de l'os windows/linux plus fluide en tous cas quand tu lance un chrome et un word.
0  0