50 ans de la loi de Moore : l'auteur étonné qu'elle ait façonné l'industrie technologique aussi longtemps
Il prédit sa fin dans une dizaine d'années

Le , par Olivier Famien

0PARTAGES

9  0 
Il y quelques heures de cela s’est tenu à San Francisco un évènement célébrant le 50e anniversaire de la loi de Moore. L’invité d’honneur était ni plus ni moins que l’illustre auteur de cette loi, c’est-à-dire Gordon Moore en personne. Sur scène l’éditorialiste du New York Times Thomas Friedman était présent pour un entretien avec ce dernier.

Convié à cet évènement pour discourir sur sa loi, l’auteur a expliqué que le message a été motivé par le fait qu’il a commencé à constater dans leur laboratoire, qu’il aurait plus de composants électroniques sur une puce. Cela l’a donc incité à publier cette pensée. Moore souligne par ailleurs qu’il n’avait aucune idée que le message serait aussi précis en tant que prédiction.

En guise de rappel, le cofondateur d’Intel et Fairchild Semiconducteur a affirmé dans le magazine Electronics le 19 avril 1965 que le nombre de transistors sur un circuit intégré doublerait chaque année. Compte tenu du ralentissement des progrès, Moore a révisé cette prédiction en 1975 en affirmant que le nombre de transistors sur un circuit intégré doublerait non plus chaque année, mais chaque deux ans. Les deux premières années, Moore reconnait qu’il ne pouvait pas prononcer le terme loi de Moore, car c’était tellement embarrassant. Une fois cette période passée, il fut en mesure de le dire sans gêne aucune.


Gordon Moore et Thomas Friedman

Vu la durée de vérification de cette loi, Moore lui-même a reconnu que « le fait qu’elle a continué pendant cinquante ans était incroyable ». Et d’ajouter, « je ne vois rien d’autre qui a duré depuis si longtemps avec une croissance exponentielle », en parlant de la prédiction sur croissance des transistors.

L’actuel PDG d’Intel Brian Krzanich qui était bien évidemment présent lors de cet évènement apporte des précisions quant à cette loi. Il souligne que « la loi de Moore est une loi économique pas tellement basée sur la physique et la chimie ».

Toutefois, en raison des limites des lois électroniques actuelles Moore reconnait que cette loi ne durera pas à toujours. Ayant tenu pendant la moitié d’un siècle, l’auteur lui accorde encore cinq à dix années supplémentaires si elle est soutenue par une bonne ingénierie. Après quoi la fréquence de croissance des transistors ne respectera plus la projection faite.

En outre en voulant savoir s’il y des choses qu’il aurait souhaité avoir prédit, Moore affirme « je regrette ne pas avoir perçu les applications plus tôt. Pour moi, le développement d’internet était une surprise. Je n’ai pas réalisé qu’il ouvrirait un nouveau monde d’opportunités ». Et de continuer en ajoutant « nous venons de voir le début de ce que les ordinateurs feront pour nous. L’évolution de l’intelligence artificielle. Cela est en train de se concrétiser par des étapes progressives. Je ne pensais jamais que je verrais un véhicule autonome sur nos routes ».

Source : Forbes

Et vous ?

Que pensez-vous de la prédiction concernant la fin de cette loi ?

Quelle projection pourrait-on faire pour les prochaines années à venir ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de pcaboche
Rédacteur https://www.developpez.com
Le 13/05/2015 à 14:15
Citation Envoyé par Olivier Famien Voir le message
Toutefois, en raison des limites des lois électroniques actuelles Moore reconnait que cette loi ne durera pas à toujours. Ayant tenu pendant la moitié d’un siècle, l’auteur lui accorde encore cinq à dix années supplémentaires si elle est soutenue par une bonne ingénierie. Après quoi la fréquence de croissance des transistors ne respectera plus la projection faite.
...et c'est là qu'on dira adieu aux transistors, bonjour aux ordinateurs quantiques et BOUM, c'est reparti pour un tour !
0  0 
Avatar de TiranusKBX
Expert confirmé https://www.developpez.com
Le 13/05/2015 à 14:41
Citation Envoyé par pcaboche Voir le message
...et c'est là qu'on dira adieu aux transistors, bonjour aux ordinateurs quantiques et BOUM, c'est reparti pour un tour !
pas sûr les processeurs quantiques ne sont pas adaptés à l'informatique d'aujourd'hui, cela vas prendre pas mal de temps pour changer
1  1 
Avatar de ternel
Expert éminent sénior https://www.developpez.com
Le 13/05/2015 à 14:55
La Moore parlait de la densité en transistors des circuits. Si on quitte les transistors, ca ne compte plus, non?
1  0 
Avatar de thorium90
Membre averti https://www.developpez.com
Le 13/05/2015 à 16:49
Citation Envoyé par pcaboche
...et c'est là qu'on dira adieu aux transistors, bonjour aux ordinateurs quantiques et BOUM, c'est reparti pour un tour !
Les Memristors dude Prévue pour 2018 par HP : http://fr.wikipedia.org/wiki/Memristor
0  0 
Avatar de pcaboche
Rédacteur https://www.developpez.com
Le 13/05/2015 à 18:16
Citation Envoyé par leternel Voir le message
La Moore parlait de la densité en transistors des circuits. Si on quitte les transistors, ca ne compte plus, non?
Justement, c'est ça l'idée...

- La loi de Moore dit : "le nombre de transistors double tous les 2 ans".

- ça reste vrai pendant un long moment, jusqu'à atteindre une certaine limite physique

- puis une nouvelle technologie apparaît (on ne sait pas encore laquelle)

- la loi de Moore devient alors "loi étendue de Moore", réécrite en : "le nombre de [quelque chose] double tous les 2 ans"

- et c'est reparti pour un tour ! (un "cycle de Moore" ?)

Ça serait assez drôle si ça se vérifiait... Par contre, vu comme c'est parti, si un tel cycle existe, on ne vivra probablement pas assez longtemps pour savoir combien de temps il dure.
3  1 
Avatar de DonQuiche
Expert confirmé https://www.developpez.com
Le 14/05/2015 à 7:31
Arrêtez de rêver à des technologies qui n'apporteront rien ou pas grand chose avant très longtemps. Toute l'industrie de la micro-électronique s'attend à une stagnation, point barre. Peut-être qu'un jour l'informatique quantique, la superconductvité, le graphène ou les nanotubes viendront changer ça mais aucune de ces technos ne sera prête avant longtemps (si elles le sont un jour) et en mesure de rivaliser avec les procédés traditionnels et leur historique de 70 années de raffinement exponentiel.

Par ailleurs la loi de Moore a dores et déjà beaucoup de plomb dans l'aile puisqu'on double désormais tous les trois ans seulement. Et cela concerne aussi la consommation électrique par calcul, qui suivait à peu près la loi de Moore et a elle aussi ralenti (les progrès récents sont surtout sur la consommation au repos du CPU ou de certaines parties du CPU).

Et s'il y a bien quelques astuces comme la lithographie 3D et compagnie, la stagnation de la consommation énergétique empêchera tout ça d'aller très loin. On ne pourra pas simplement empiler des CPU et de la RAM, ça va aussi vite s'arrêter.

Une fois les illusions laissées de côté vient la question vraiment intéressante : que fait-on maintenant ?

a) Davantage de parallélisme, beaucoup plus efficace en termes de performances par transistor. De toute façon les perfs séquentielles ont quasiment atteint un plafond.

Désolé les gars mais il va falloir vous y mettre (pour ceux qui ne l'ont toujours pas fait) et ce n'est pas un drame : il existe certains modèles de parallélisme vérifiables (isolation des données par exemple) et les compilateurs pourraient les vérifier et émettre une erreur avec exemple en cas de violation. Donc, oui, on va pouvoir généraliser le parallélisme et faire en sorte que le plus stupide des programmeurs puisse s'y mettre sans risque. Mais je doute que ce soit avec du C++/Java/C#/Javascript/php. Pour l'heure il faut regarder du côté de Rust ou Go.

Et pas la peine de me citer la loi d'Amdahl : certains algorithmes ne sont pas parallélisables mais a priori la grande majorité des problèmes le sont. Bon, cela dit il faudra sans doute conserver *un* coeur séquentiel très rapide. Mais pour le reste ce sera du parallélisme.

b) Des architectures spécialisées ou sur-mesure, notamment dans les centres de données, adaptées à telle ou telle famille de problèmes. Dsp et archis conventionnelles bien sûr mais aussi architectures neuromorphiques, analogiques, quantiques, à base de memristors, etc. Rien qui puisse remplacer l'informatique généraliste mais tout ça a tout de même une utilité circonstancielle. A priori on peut donc s'attendre à une explosion du nb d'architectures matérielles et à la nécessité d'écrire du code pour des archis très exotiques, voire de pouvoir facilement créer son propre CPU.

c) Le nuage. Le particulier ne pourra pas héberger des tonnes de CPU sous refroidissement cryogénique, mais un centre de données, lui, oui, et le modèle économique de la mutualisation est peu coûteux pour l'utilisateur. Par ailleurs nombre de nouvelles applications demandent de toute façon une centralisation, par exemple pour tout ce qui est big data / AI, afin d'héberger de très larges base de connaissances et d'entraîner ces systèmes sur les dizaines de millions d’occurrences générées par les utilisateurs. Cortana/Oxford, Siri, Google Now, Big Blue, etc. Et ça veut dire aussi que les réseaux à faible latence et haut débit vont devenir de plus en plus importants. Il n'y aura sans doute pas de Playstation 5 mais plutôt votre smartphone relié à la télé et une manette, et décodant le flux vidéo envoyé par un serveur.
1  0 
Avatar de
https://www.developpez.com
Le 14/05/2015 à 20:36
Il y a bien une équivalence associé aux bits d'échantillonnages des convertisseurs analogique-numérique?
0  0 
Avatar de
https://www.developpez.com
Le 14/05/2015 à 20:43
Citation Envoyé par DonQuiche Voir le message
Il n'y aura sans doute pas de Playstation 5 mais plutôt votre smartphone relié à la télé et une manette, et décodant le flux vidéo envoyé par un serveur.
Dans l'immédiat, mon intuition serait une version de la NVIDIA Shield comme manette de la PS3. Faire tourner les jeux PS Vita et beaucoup plus puisque le circuit graphique semble véloce par rapport au prérequis des jeux de la PS3 et PS Vita.

P.S.: Une manette PS3? Ils ont vraiment pas pensé au low cost pour commencer (PS4)...
0  2 
Avatar de DonQuiche
Expert confirmé https://www.developpez.com
Le 15/05/2015 à 17:09
Citation Envoyé par MikeRowSoft Voir le message
Il y a bien une équivalence associé aux bits d'échantillonnages des convertisseurs analogique-numérique?
Tu peux toujours faire des conversions numériques <-> analogiques, oui. Mais des circuits analogiques présentent des avantages si tu peux te permettre une erreur ici ou là, ce qui est le cas pour beaucoup d'applications, notamment dans l'intelligence artificielle et le big data (le cerveau humain en est un bon exemple).

Dans un circuit numérique on ne peut pas se permettre d'erreur, donc les états 0 et 1 doivent *toujours* être très nettement séparés, ce qui implique une tension électrique suffisante. En comparaison si tu peux te permettre des erreurs alors tu peux baisser très fortement la tension (plusieurs ordres de grandeur), donc émettre beaucoup moins de chaleur et empiler les unités de calcul. A nouveau le cerveau en est un excellent exemple.

Autre avantage : pas besoin de semi-conducteur, donc on peut envisager des matériaux très divers et à des fréquences beaucoup plus élevées.

Enfin certaines choses sont plus faciles à faire en binaire, d'autres plus faciles à faire en analogique : une addition est un jeu d'enfants en analogique.

Historiquement la grande limite des ordinateurs analogiques a été le contrôle du bruit, qui avait tendance à prendre trop d'importance, et les ordinateurs numériques apparaissaient plus simples et ont finit par l'emporter. La fin de la loi de Moore et le renouveau de l'engouement pour l'IA poussent certains labos à revenir sur ces architectures pour voir si on ne peut pas faire mieux qu'il y a cinquante ans. Mais encore une fois ce ne sera que pour certains calculs, même si cela pourrait inclure des usages grand public (raytracing par exemple).
0  0 
Avatar de abriotde
Membre expérimenté https://www.developpez.com
Le 20/05/2015 à 21:16
La loi de moore sera sans doute toujours vrai, du moins aussi longtemps que la civilisation telle qu'on la connait durera. On peut même l'étendre bien plus loin avec l'évolution technologique depuis 20 000 ans au moins. Prenons, par exemple la transmission de données... Il y a 10 000 ans, c'était a pied en escaladant les montagne... 10 000 ans après on a fait des routes ponts avec l'emmergence de première civilisations, puis 5 000 ans après on a domestiquer le cheval, puis 2500 ans après a été inventé des bateaux plus rapides des relais pour transmettre des messages par signaux de colines en colines, puis la le train / bateau a vapeur, puis le télégraphe, puis le téléphone, puis internet qui a lui même connu une croissance exponnentiel des débits... Certes le "tous les 2 ans" est une approximation il y a des paliers, et des boom technologiques... mais la loi général de la technologie est l'exponentiel.
0  2 
Contacter le responsable de la rubrique Accueil

Partenaire : Hébergement Web