IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sommes-nous préparés à la fin de la loi de Moore ? Elle a alimenté la prospérité des 50 dernières années
Mais la fin est maintenant en vue

Le , par Bill Fassinou

1.2KPARTAGES

17  2 
La loi de Moore est une loi empirique qui se rapporte à l'évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique. Depuis son apparition, il y a un peu plus de soixante ans, l’évolution des circuits intégrés a suivi les prévisions de la loi. Cependant, plusieurs personnes dans l’industrie des semiconducteurs pensent que la loi est désormais arrivée à ses limites. D’un autre côté également, certains estiment que la fin de la loi pourrait ralentir le progrès technologique et nuire à des technologies comme l’intelligence artificielle.

En 1965, Gordon Moore prédisait que le nombre de composants d'un circuit intégré doublerait chaque année pour atteindre le chiffre étonnant de 65 000 en 1975, ce qui est vraiment arrivé. C’est la plus grande prévision technologique du dernier demi-siècle. Lorsqu'elle s'est révélée exacte en 1975, Moore a révisé la loi, en prévoyant un doublement des transistors sur une puce tous les deux ans. Depuis lors, sa prédiction a défini la trajectoire de la technologie et, à bien des égards, du progrès lui-même. L'argument de Moore était aussi d'ordre économique.

En 1965, Moore déclarait qu’avec les nouveaux circuits intégrés, le coût par composant est presque inversement proportionnel au nombre de composants. Moore a également vu qu'il y avait beaucoup de place pour des avancées techniques pour augmenter le nombre de transistors que vous pourriez mettre de manière abordable et fiable sur une puce. Ces puces moins chères et très puissantes sont ensuite devenues ce que les économistes appellent une technologie à usage général, une technologie si vitale qu'elle a engendré d'autres innovations dans de multiples secteurs.

Mais qu’arrivera-t-il lorsque la loi de Moore prendra fin ? Selon les analystes, l’industrie des semiconducteurs se retrouverait ralentir et par ricochet, les progrès technologiques. Comme certains le soupçonnent, la loi a déjà pris fin et nous sommes en train de fonctionner avec les vapeurs du plus grand moteur technologique de notre temps. D’après Charles Leiserson, informaticien au MIT et pionnier du calcul parallèle : « C'est fini. Cette année, c'est devenu vraiment clair ». Selon lui, ceci se traduit par le retard dans la livraison de nouvelles puces.


Selon l’analyse du MIT Technology Review, la toute dernière usine de fabrication d'Intel, destinée à fabriquer des puces dont la taille minimale des caractéristiques est de 10 nanomètres, a pris énormément de retard. Elle a livré des puces en 2019, cinq ans après la génération précédente de puces de 14 nanomètres. La loi de Moore, selon Leiserson, a toujours porté sur le rythme du progrès, et « nous ne sommes plus à ce rythme ». De nombreux autres informaticiens éminents ont aussi déclaré ces dernières années que la loi de Moore était morte.

Début 2019, le PDG du grand fabricant de puces Nvidia a donné son accord. « La loi de Moore avait l'habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s'agit plus d'un déclin progressif que d'une mort subite. Au fil des décennies, certains, dont Moore lui-même parfois, se sont inquiétés de voir la fin en vue.

Il devenait de plus en plus difficile de fabriquer des transistors de plus en plus petits. Pendant des années, l'industrie des puces a réussi à contourner ces obstacles physiques. Mais le progrès est devenu de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l'effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971. De plus, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût d'une usine augmente d'au moins 13 % par an et attendra 16 milliards de dollars ou plus d'ici 2022.

Selon le rapport du MIT Technology Review, c’est la raison pour laquelle le nombre d’entreprises qui prévoient de fabriquer la prochaine génération de puces est en constante baisse depuis 2002, ils ne seraient désormais plus que trois. Néanmoins, des enseignes comme Intel, l'un de ces trois fabricants de puces, ne voient pas la fin de la loi de Moore pour tout de suite. Jim Keller, qui dirige l'ingénierie de silicium d'Intel trouve qu’il existe encore de nombreuses possibilités de progrès. Il estime que chacune de ces possibilités est toutefois un couteau à double tranchant.

Selon lui, il y a probablement plus d'une centaine de variables qui interviennent dans le maintien de la loi de Moore, chacune d'entre elles apportant des avantages différents et se heurtant à ses propres limites. Cela signifie qu'il existe de nombreuses façons de continuer à doubler le nombre de dispositifs sur un processeur, des innovations telles que les architectures 3D et les nouveaux designs de transistors. Il est optimiste sur la question et affirme qu'Intel est sur la bonne voie pour les dix prochaines années.

Cependant, même si Intel et les autres fabricants de puces peuvent produire quelques générations supplémentaires de puces encore plus avancées, l'époque où l'on pouvait compter sur des puces plus rapides et moins chères tous les deux ans est révolue. Mais cela ne signifie pas pour autant la fin des progrès informatiques. Dans un rapport, Leiserson et Neil Thompson, économiste au CSAIL du MIT ont expliqué que l’industrie a des possibilités pour améliorer les performances de calcul grâce à de meilleurs logiciels, des algorithmes et une architecture de puce spécialisée.

L'une d’entre elles consiste à réduire le ballonnement des logiciels pour tirer le meilleur parti des puces existantes. Lorsque l'on pouvait encore compter sur les puces pour devenir plus rapides et plus puissantes, les programmeurs ne se souciaient pas beaucoup d'écrire du code plus efficace. Et souvent, ils ne parvenaient pas à tirer pleinement parti des changements dans l'architecture matérielle, comme les multiples cœurs ou processeurs que l'on trouve dans les puces utilisées aujourd'hui.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

La fin de la loi de Moore arrêtera-t-elle les progrès de l'intelligence artificielle ? Les avis sur la question sont plutôt mitigés

Un ingénieur de Google estime qu'il est temps de créer de nouveaux langages et architectures informatiques, la loi de Moore ayant atteint ses limites

Google aurait mené la première véritable expérience qui établit la suprématie quantique avec un système qui résout en 3 min un calcul dont la résolution prendrait 10 000 ans sur un supercalculateur

IBM conçoit un processeur de 50 qubits et évoque la suprématie quantique. Comment se traduit ce nombre de qubits dans la réalité ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de onilink_
Membre émérite https://www.developpez.com
Le 06/03/2020 à 11:03
Quand on s’intéresse vraiment aux semi conducteurs, parler de "fin de loi de moore" ça à pas vraiment de sens, tout du moins pour l'instant.
Les constructeurs on encore pas mal de cartes qu'il leur reste à jouer. Entre les nouveaux matériaux et l'avancée de la recherche à ce niveau, les architectures hybrides avec d'autres paradigmes (comme la photonique), le développement de l'informatique quantique sur puces de silicium, les idées d'architectures novatrices pour diminuer la dissipation thermique, les nouvelles méthodes de "gravure" etc... alors certes il pourrait y avoir un ralentissement le temps qu'une percée se fasse, mais sur le long terme il n'y a pas d'inquiétude à se faire, c'est pas comme si on avait tout essayé. Loin de la.

Et d'un autre côté, si la puissance brut des ordinateurs arrêtait de grimper un moment, qui sait, ce ne serais pas si terrible que cela. On recommencerait à faire de la "vrai" informatique, et optimiser réellement nos programmes pour des architectures spécifiques, plutôt que créer des "applications" en javascript pour faire des soit disant clients "légers" (oui on a tous compris que je parlais de discord et autres applications électron).
18  3 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 06/03/2020 à 11:47
@L33tige
C'est une hyperbole à vocation humoristique.
Mais c'est une façon de montrer que plus le temps passe, plus l'informatique devient un empilement de couches de merde qui n'ont pas forcement de sens, même si toi en tant que "end user" tu ne "vois pas de problèmes". Le problème est plus fondamental, passer par un interpréteur javascript pour faire une application "native", ça n'a juste pas de sens. Et c'est pourtant comme ça que fonctionne l'informatique moderne, on développe non pas les langages pour qu'ils soient performant et efficaces, mais pour qu'ils soient simples à utiliser, pour produire beaucoup, pour produire vite, quitte à produire de la merde.
Y à qu'a voir l'état du web en 2020 pour se faire une idée.
Juste pour l'exemple, aller sur youtube avec un raspberry pi ça devient mission impossible tellement on utilise des technos gourmandes.
13  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 06/03/2020 à 12:19
Citation Envoyé par Ryu2000 Voir le message
Ouais mais d'un autre côté pourquoi faire en sorte que les applications utilisent le moins de ressource possible alors que tout le monde à des "avions de chasse" (comparé aux besoins).
Flash est mort pour ça !
Je suis certain que les pires applications en flash qui faisait tout ramer à l'époque ne sont pas pires que beaucoup d'appli JS d'aujourd'hui.
10  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 06/03/2020 à 11:02
Citation Envoyé par Bill Fassinou Voir le message
Le coût d'une usine augmente d'au moins 13 % par an et attendra 16 milliards de dollars ou plus d'ici 2022.
Et vous ?
Quel est votre avis sur le sujet ?
Des couts de developpements collossaux, et au final on paye des composants moins chers que des montures de lunettes...Y a vraiment des secteurs qui entubent plus que les autres !
8  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 06/03/2020 à 11:17
Citation Envoyé par Bill Fassinou Voir le message
Jim Keller, qui dirige l'ingénierie de silicium d'Intel trouve qu’il existe encore de nombreuses possibilités de progrès. Il estime que chacune de ces possibilités est toutefois un couteau à double tranchant.

Selon lui, il y a probablement plus d'une centaine de variables qui interviennent dans le maintien de la loi de Moore, chacune d'entre elles apportant des avantages différents et se heurtant à ses propres limites. Cela signifie qu'il existe de nombreuses façons de continuer à doubler le nombre de dispositifs sur un processeur, des innovations telles que les architectures 3D et les nouveaux designs de transistors. Il est optimiste sur la question et affirme qu'Intel est sur la bonne voie pour les dix prochaines années.
Ouais Intel a planifié un plan qui va jusqu'en 2029. Bon la feuille de route est intenable, mais c'est bien d'être hyper ambitieux parfois :

[th]Année[/th]
[th]Gravure[/th]
2019 10 nm
2021 7 nm
2023 5 nm
2025 3 nm
2027 2 nm
2029 1,4 nm

Si les progrès technique ralentissent ce n'est pas si grave, on a déjà beaucoup de marge, les gens ont souvent du matériel beaucoup plus puissant que nécessaire.
Bon alors effectivement ce sera mauvais pour la consommation et la croissance économique, car les consommateurs n'auront pas de raison de renouveler leur matériel. Mais est-ce que c'est si mal ? Ce sera bon pour l'environnement
Tout à une limite

Les développeurs vont devoir faire un effort sur l'optimisation.
5  0 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 06/03/2020 à 12:07
Citation Envoyé par Ryu2000 Voir le message
Par contre j'ai acheté un SSD d'1 To uniquement pour mettre mon dossier Steam dessus et je trouve que ça ne change pas grand chose
Alors c'est peut être dans ma tête mais perso j'ai vraiment eu l'impression d'y gagner. Par exemple sur civilization, la partie se lançais plus vite, même sur des jeux comme counter strike tu vois vite qui à un SSD et un HDD a la vitesse de connexion dans l'échauffement. Une fois tout chargé il y a pas de différence, mais quand ça charge c'est notable. GTA online j'en parle même pas, sur HDD le jeu dois mettre plus de 10 minutes à se lancer tellement c'est looong.

Et ça se fait encore le stockage avec du PCI express, et effectivement c'est encore mieux que le M.2 il me semble niveau débit. Mais il y a pas ce bon du HDD/SSD qui donne vraiment l'impression que tout est mega rapide et compagnie. C'est juste super véloce, mais tu t'en rends pas toujours compte (par contre derrière ça envoie ohlala)
5  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 06/03/2020 à 12:44
Citation Envoyé par Ryu2000 Voir le message
Ouais mais d'un autre côté pourquoi faire en sorte que les applications utilisent le moins de ressource possible alors que tout le monde à des "avions de chasse" (comparé aux besoins).
Je sais pas, économie d'énergie? (quand tu multiplies quelques watts par des millions de machines ça a un impact réel)
A l'autonomie des portables?
Penser aux gens qui ont des vieux PC (et je parle même pas de PC qui ont 20 ans non plus)?
Aux pays ou tout le monde n'a pas forcement l'argent pour investir dans du PC next gen tous les 5 ans?

Citation Envoyé par Ryu2000 Voir le message
Les smartphones ont parfois des processeurs avec 8 cœurs et 4 Go de RAM, donc ils sont large pour gérer l'application YouTube.
Oui, mais à côté de ça s'ils utilisent beaucoup plus de performances que nécessaire, et bien leur autonomie va juste diminuer.
Et je ne pense pas que les smartphones a 8 cœurs sont la généralité.

Puis ce genre de raisonnement c'est un cercle vicieux.

Citation Envoyé par Ryu2000 Voir le message
Quand quelqu'un fait un site il doit gérer avec un problème extrêmement énervant qui est la taille et l'orientation des écrans, les sites doivent fonctionner sur smartphone et sur tablette Le site doit s'adapter à trop d'écrans c'est l'horreur. (on ne peut pas se dire "ça s'affiche sur un écran 800*600 et sur un écran de 1024*768, donc on est bon"
Les gars ne vont pas en plus se rajouter un challenge "le site doit tourner sur un PC de 1996".
En plus quand les sites commencent à ramer les gens considèrent l'idée de changer de matériel. Pour la société de consommation c'est bien.
Merci les exagérations. La je parle de matériel relativement récent.
Puis quand tu n'as pas les moyens ça peut être un argument. Quand tu es google on s'attend a un minimum de qualité.

Ce genre de problème ne date pas d'hier. Mais j'ai l'impression que les principes de base en optimisation ont juste disparu dans certains domaines (dont le web).
Pourtant optimiser un programme c'est aussi:
- faire un bon choix au niveau des technos (et bien entendu ça implique que les technos existent)
- faire les bons choix architecturaux
- avoir un niveau de compétence minimum requis pour l'implémentation
- passer un peu plus de temps sur les quelques parties critiques du programme (on connaît le vieil adage de "10% du programme consomme 30% des performances" ou un truc du genre)
Bref, au final c'est juste bien designer son logiciel...
IMO un logiciel non opti est juste un logiciel mal conçu.
5  0 
Avatar de Pyramidev
Expert éminent https://www.developpez.com
Le 06/03/2020 à 16:07
Citation Envoyé par SQLpro Voir le message
Il y a peu, un classement montrait que l'un des langages le moins écologique était Python ! Il ne serait dons pas étonnant de revenir un de ces jours vers le C !
https://jaxenter.com/energy-efficien...es-137264.html
Dans les cas où on utilise Python, revenir au langage C serait une pure aberration. L'informatique a évolué.

L'écosystème s'est massivement développé autour de Python, car c'est un langage simple en début d'apprentissage. Le fait qu'il possède un ramasse-miettes et qu'il soit dynamiquement typé lui ont permis de ne pas effrayer les développeurs novices. Si Python est écarté car trop lent, alors il sera remplacé par un autre langage avec ramasse-miettes et qui autorise le typage dynamique, mais qui est beaucoup plus rapide que Python. Le remplaçant de Python sera peut-être Julia.

Et dans les cas où on veut les vraies performances comme en langage C, le remplaçant le plus probable est Rust.
5  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/03/2020 à 11:33
Citation Envoyé par Ryu2000 Voir le message
Ça doit être cool de garder le même processeur pendant presque 10 ans, est-ce que la carte graphique et la ram sont restés les mêmes ?

Aujourd'hui ça devrait faire pareil avec celui qui achète un AMD Ryzen 7 3700X, le gars va être tranquille pendant un moment. 8 cœurs, 16 threads, 36 Mo de cache, ça devrait être large. Si ça se trouve en 2031 il sera toujours bien.

J'avais également en tête les téléphones portables, est-ce que ça sert vraiment à quelque chose qu'ils soient aussi puissant ?
Processeur : Qualcomm Snapdragon 660 Octo Core 2.2 GHz
Processeur graphique : Adreno 512
Ram : 4 Go

Les pc portables se vendront probablement toujours bien, parce qu'au bout d'un moment ils sont au bout de leur vie à cause de la poussière. Rare sont ceux qui ont gardé le même PC portable pendant 10 ans.
J'ai la ram d'origine, par contre la CG j'avais une 580 j'ai mis une 980ti hyperclocked (que j'ai touché 150e donc forcement même si c'est stupide je l'ai quand même rajoutée) et un SSD, mais sinon tout le reste est d'origine j'ai même le HDD de base pour le stockage.

Pour les téléphones je suis d'accord pour la majorité des usages les configs moyennes gammes font largement l'affaire, surtout pour le prix des grandes marques, avec comme argument la photo, mais parfois pour l’écart de prix t'as plus vite fait d'acheter un bon hybride si t'as la place dans ton sac.
4  0 
Avatar de SQLpro
Rédacteur https://www.developpez.com
Le 06/03/2020 à 13:53
Finalement ce qui est amusant dans tous cela c'est la bataille autour du NoSQL, qui va sans doute perdre beaucoup...
Je m'explique.

Les bases de données relationnelles ont bénéficiées d'une théorie mathématique et de près de 40 ans de R&D ce qui leurs a permis de devenir extrêmement efficace à peu de frais grâce à l'indexation, le parallélisme et l'optimiseur...
Les bases NoSQL sont venus perturber ce jeu en proposant un modèle radicalement différent basé sur un empilement de hardware...
Bref, l'éternel lutte entre le muscle (noSQL) et le cerveau (SGBDR) !
Et certains on cru que le NoSQL allait gagner sur les SGBD Relationnels....

Le fait de commencer à voir les limites de Loi de Moore, va remettre tout ceci en jeu et il est très probables que les SGBDR vont à nouveau avoir le vent en poupe !
Il en sera sans doute de même avec les langages de programmation. Il y a peu, un classement montrait que l'un des langages le moins écologique était Python ! Il ne serait dons pas étonnant de revenir un de ces jours vers le C !
https://jaxenter.com/energy-efficien...es-137264.html

A +
4  0