
Envoyé par
berceker united
(...) à titre personnel je constate que les gens utilisent de moins en moins d'applications lourdes sur leurs ordinateurs (...) Mise à part les serveurs, je ne vois pas à qui cela peut s'adresser. Si hors utilisation serveur, marché de niche ?

Envoyé par
onilink_
(...) au final plus de puissance permet plus de possibilité, donc ça finis par être utilisé jusqu'à devenir le standard.
(...) Au final y a pas tant d'algos utiles que ça qui sont impossible a multithreader.
Tout ce qui est rendu 3d, traitement audio, traitement vidéo, deep learning, ça marche toujours mieux sur plusieurs cores.
(...)
Y a pas mal d'éléments d'un jeu qui demandent beaucoup de calculs et peuvent être calculé sur plusieurs threads (par exemple la physique, l'IA).

Envoyé par
foetus
Il y a surtout un point important

: c'est la gestion des caches partagés et la communication entre les cores (on parle de trois matrices Skylake-SP : LCC, HCC et XCC).
Le fait que les applications lourdes sur PC soient de moins en moins lourdent, le sont pour 2 raisons principales :
1) Une appli lourde il y a 10ans ou plus, ne l'es plus forcément aujourd'hui. Tous les usages n'engendrent pas un besoin de croissance de calcul linéaire avec les années, mais plutôt un palier de confort à franchir.
2) Le "service web" s'est démocratisé avec internet, et les avantages qu'il a apporté, c'est d'utiliser une puissance de calcul autre pars que sur sa machine, et par conséquent se libérer de certains désagréments liés à une installation et sa maintenance, des limitation matériels... en plus de la résilience des données.
Ces appli ne sont pas moins nombreuses (en terme d'offre sur le marché), mais on en retrouve moins sur un même PC, et le critère de "lourd" est relatif, il est souvent relatif à la puissance de calcul disponible en moyenne, et non en valeur absolue (de ressource utilisé /quantité de données traité). Et pour finir bien des appli profitent d'optimisations de leur algorithme ou de l'environnement de développement, qui en améliore de facto leur efficacité.
Au-delà de ça, certaines appli n'étaient pas amené à devenir gourmande, et par la disponibilité de ressources toujours croissante, n'ont pourtant cesser d'intégrer plus de fonctionnalités, ou d'enrichir le résultat qu'elles produisent. Dans certains cas, aujourd'hui où tu utilise une applis pour un besoin, tu en utilisais plusieurs avant.
onilink_ , détrompe-toi, ça marche pas toujours mieux sur plus de coeur... l'arrivée Ryzen et ses 8 coeurs, à permis d'observer que de rares logiciels refusaient tout simplement de démarrer sur des CPU de plus de 4 coeurs (Ryzen 7 avec 4 coeurs désactivés sur 8 et c'était de nouveau opérationnel).
"Si hors utilisation serveur, marché de niche ?"
Dès qu'il est question de graphisme "haut de gamme" ou de logiciels de "production", tu peux être sûr que la question sur la puissance dispo d'un CPU est primordiale, et éliminer les i3 et compagnie. S'il y a aujourd'hui des fréquence max à 4-5 GHz sur plusieurs coeurs, c'est parce qu'un équivalent mono-coeur à fréquence suppérieur est moins "efficace" énergétiquement, de plus l'architecture multi-coeur apporte une souplesse/polyvalence dans le traitement. Les PC à 1500€ (de matière brut) son plus courant que tu ne le pense, en entreprise ou chez les particuliers (parfois auto-entrepreneur).


Envoyé par
23JFK
Bof. A un moment donné, pour un utilisateur lambda, le nombre de coeurs n'apporte plus d'amélioration en utilisation. Augmenter la fréquence d'horloge des coeurs redevient plus intéressant pour accélérer des traitements récurrents qui ne seront jamais parallélisables.
Malheureusement on ne peut pas être aussi catégorique. Certains logiciels semblent s'appuyer sur la fréquence, d'autres sur les coeurs, d'autres misant sur les jeux d'instructions.
Pour StockFish par exemple (une IA d'échec), le nombre de coeurs prime fortement sur la fréquence en terme de gains... et le SMT d'AMD (Hyper Threading pour intel) est plus efficace sur un processeur avec peu de coeur.
http://www.hardware.fr/focus/121/influence-nombre-coeurs-smt-ryzen.html
- le choix du modèle de CPU intégrant les instructions les plus efficaces pour le logiciel visé (ce seul point justifie des écarts de performance jusqu'à 50% dans certain cas... autre que StockFish)

Envoyé par
ShigruM
(...) pleins de programme sont mal paralléliser parce que les dev ne le font pas car personne n'a de cpu > 4coeurs
(...) Moi je vois que depuis qu'AMD a démocratiser le 8coeurs/16threads, tous les nouveaux jeux exploite bien mieux les cpu 8coeurs
(...) Si dans le futur nous avons des cpu 32coeurs, les dev vont peut etre enlever des calculs comme la physique du gpu pour exploiter le cpu 32couers, cela libérera des ressources gpu pour atteindre plus facilement la 8K
Entièrement d'accord avec toi. Tu sais pourquoi l'usage du nombre de coeur maximal n'est pas déterminé par l'OS, mais des différentes étapes de développement ?
Ca m'a toujours intrigué --> permettre à un programme (dans sa conception je parle) un usage d'une capatité de mémoire illimité, de thread illimité, mais pas de sappuyer sur un nombre de coeur illimité. Quelle est la cause de cette limitation ? quelqu'un sait ?

Envoyé par
dantes94
Pas sur qu'un 28C soit vraiment utile pour du jeux vidéo, sauf si c'est pour compiler

Qui peux le plus peux le moins. Faut seulement voir sur combien d'années tu te projette et la "modularité" de ton porte-feuille ! x)
1 |
0 |