Un ingénieur de Google estime qu'il est temps de créer de nouveaux langages et architectures informatiques
La loi de Moore ayant atteint ses limites

Le , par Bill Fassinou, Chroniqueur Actualités
À la conférence « The @Scale Conference » de la semaine dernière, l'ingénieur de Google David Patterson a expliqué à une foule d’ingénieurs que « l’échelle de performances à laquelle nous étions habitués » touche à sa fin. « Si vous comptez attendre que les performances de vos processeurs doublent, vous allez devoir attendre longtemps », dit-il.

Selon lui, il n’y a pas de meilleur moment que maintenant pour être architecte informatique. Ajoutant que la loi de Moore est à sa fin, il a expliqué qu’on est en retard par rapport à là où nous en serions si cette loi était encore viable. « Nous sommes déjà à l’ère post-loi de Moore », précise-t-il.


Il faut donc reformer entièrement l’échelle de performances qui régissait l’architecture informatique et pour le professeur Patterson, c’est une bonne nouvelle. « De nouvelles architectures matérielles révolutionnaires et de nouveaux langages logiciels, conçus pour traiter des types spécifiques de problèmes informatiques, ne demandent qu'à être développés. Si les gens veulent travailler dessus, il y a plein de prix Turing qui attendent d’être remportés », a-t-il déclaré.

Rappelons à toutes fins utiles que le prix Turing est l’équivalent en informatique du prix Nobel. C’est une récompense accordée à un « individu sélectionné pour des contributions d'importance technique durable et majeure dans le domaine de l'informatique ».

Sur le plan logiciel, le professeur Patterson, campant sur ses convictions, souligne que la réécriture de Python en C permet de multiplier la performance des programmes par 50. Diverses techniques d’optimisation peuvent être employées afin d'améliorer davantage la performance des programmes selon lui. Sur le plan matériel, le professeur explique que développer des architectures spécifiques à un domaine permettra d'atteindre de meilleures performances dans ce domaine.

Pour le professeur Patterson, il est incontestable que le domaine d’application le plus prometteur pour les nouvelles architectures et les nouveaux langages, c’est l’apprentissage automatique. Pour lui, le non-consensus sur le type d’architecture informatique la mieux adaptée à l’apprentissage automatique représente une colossale source d’opportunités pour que de nouvelles architectures fleurissent. « En fin de compte, le marché décidera. Ceci est un âge d’or pour l’architecture informatique », a-t-il conclu.

Source : IEEE

Et vous ?

Que pensez-vous de la vision du professeur ?

Voir aussi

HP réinvente l'ordinateur avec « The Machine » une nouvelle architecture informatique

Les meilleurs cours et tutoriels sur la programmation et l'informatique professionnelle

Samsung a conçu une nouvelle architecture GPU mobile qui pourrait être utilisée dans les smartphones et les superordinateurs


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de Edrixal Edrixal - Membre régulier https://www.developpez.com
le 20/09/2018 à 13:23
Avatar de KsassPeuk KsassPeuk - Membre averti https://www.developpez.com
le 20/09/2018 à 13:54
Citation Envoyé par Bill Fassinou Voir le message
Pour le professeur Patterson, il est incontestable que le domaine d’application le plus prometteur pour les nouvelles architectures et les nouveaux langages, c’est l’apprentissage automatique. Pour lui, le non-consensus sur le type d’architecture informatique la mieux adaptée à l’apprentissage automatique représente une colossale source d’opportunités pour que de nouvelles architectures fleurissent. « En fin de compte, le marché décidera. Ceci est un âge d’or pour l’architecture informatique », a-t-il conclu.
Le problème de l'apprentissage automatique, c'est que c'est un domaine de recherche où l'on est capable de déterminer si oui ou non une solution est meilleure qu'une autre sur des jeux de données, mais qu'on est généralement incapable de dire :
  • pourquoi les résultats sont meilleurs,
  • qu'est ce que veut effectivement dire le résultat,
  • comment le résultat a été produit au final,
  • est ce que sur des données autres, ça va continuer à marcher.


Bref, pour moi, un monde où l'on met de l'apprentissage et de l'IA de partout, c'est un monde où l'on comprend encore moins nos systèmes (et bordel, nos systèmes sont déjà plus que mal compris quand ils ne sont pas tout simplement obscurs - cf des discussions récentes à base de "le code marche (sûr ?), j'ai aucune foutue idée de pourquoi, mais bon gardons ça"), systèmes auxquels on va donner encore un peu plus de responsabilités sur des tâches qui impliquent de l'humain. De ce côté, il y a plus que du boulot. Et le problème principal, c'est que c'est des tâches qui ne rapportent pas d'argent. Il est vachement plus efficace de balancer une campagne de marketing pour vanter une sûreté illusoire et que d'effectivement garantir la sûreté d'un système.
Avatar de Uther Uther - Expert éminent https://www.developpez.com
le 20/09/2018 à 16:44
Que pensez-vous de la vision du professeur ?
Quelle vision? Il s'est contenté d'enfoncer une dizaine de portes ouvertes.
Avatar de abriotde abriotde - Membre éprouvé https://www.developpez.com
le 20/09/2018 à 17:19
Nous sommes déjà à l’ère post-loi de Moore
Je n'en serais pas si certains. La loi de Moore n'a jamais été respecté un jour le jour il y a toujours eu des écart des moment ou de croissance mole et d'autres ou l'on rattrapait la loie de Moore. Or force est de constater que si la finesse de gravure n'évolue plus aussi vite qu'a l'époque béni, et que la fréquence des processeur n'évolue plus du tout pour ce qui est de la puissance de calcul, il en est tout autre. L'architecture, les mémoire évolue rapidement, la finesse de gravure continue d'évoluer... mais surtout l'on voit évoluer très rapidement d'autres technologie qui relevaient de la science-fiction et encore parfois hypothétiques comme l'ordinateur quantique. Il y a un autre point à prendre en compte : Intel a depuis 15 ans environ très largement ralentis ses investissements... Mais quand on regarde l'évolution de la puissance des téléphone portable (marché ou Intel est absent), on vois clairement que la loie de moore continue de s'appliquer. En fait la loie de Moore doit être élargie (et c'est pas moi qui le dit). Pour être très large l'évolution de l'humanité croit de manière exponentiel.
Avatar de clorr clorr - Membre du Club https://www.developpez.com
le 20/09/2018 à 17:55
C'est surtout de la loi de Wirth qu'il faut s'occuper ! Ca fait bien longtemps que nos ordinateurs sont largement assez puissants pour faire tourner ce que 90% des gens font au quotidien, et pourtant, de version d'OS en version d'OS les ordis ralentissent et ça sent fort l'obsolescence forcée.
Avatar de SimonDecoline SimonDecoline - Membre expérimenté https://www.developpez.com
le 20/09/2018 à 23:37
Citation Envoyé par Uther Voir le message
Quelle vision? Il s'est contenté d'enfoncer une dizaine de portes ouvertes.
C'est clair.

En même temps, le gars a 70 ans et est à la retraite depuis au moins 2 ans donc bon, sa vision n'est peut-être plus aussi perçante qu'avant.
Avatar de Steinvikel Steinvikel - Membre averti https://www.developpez.com
le 21/09/2018 à 1:02
avant de parler de l’essoufflement de la loi de Moore, on peut parler des divergences de définition de "la finesse de gravure" en fonction de chaque fondeurs, chaque marques, etc.
...certains s'appuyant sur la largeur d'une grille, d'autres sur sa longueur, d'autres sur le pitch, certains prenant compte de l'espacement entre les transistors...
Bref, il y a toujours eu pas mal d'intox pour une loi sensé projeter l'évolution d'une "densité de transistors", en s'appuyant sur des éléments techniques de l'époque et les tendances d'évolutions constatés.

EDIT : 10nm et 7nm sont des termes marketeux, encadré par l'ITRS > https://www.hardware.fr/news/14520/i...loi-moore.html
Si à première vu "10" et "7" semblent bien distincts : 30% de moins (dans un sens), 45% de plus (dans l'autre sens). Les différents processus de fabrication propre à chaque fondeur rend ce terme bien plus flou, à tel point que le 10nm de machin et le 7nm de bidule, affiche en pratique, un pitch presque identique.
Ce qui serais pertinent, ce serait de définir la finesse par le plus petit sillon possible à graver sur une surface, pour un motif géométrique de référence (ou une moyenne de plusieurs motif).
La question de l'espacement entre les gravures, leur fiabilité/qualité... est quand à elle dépendante des processus de fabrication, pas de la finesse que permet le laser qui les graves.

un billet de DVP.com sur la question --> 3-nm-5-nm-7-nm-tour-d-horizon-differents-procedes-gravure

Je pense pas que que nos ordinateurs lents ne le sontpas par de l'obsolescence programmé du moins pas pour la plus grande part. Cette cause est selon moi du au changement du modèle de développement:
- avant c'était "faisons le meilleur produit, on va éclipser tout nos concurrents !"
- maintenant c'est "plaçons le produit le plus vite possible sur le marché, on patchera plus tard ! ...on aura plus de visibilité."
Avatar de requinham requinham - Membre régulier https://www.developpez.com
le 21/09/2018 à 10:10
C'est Moore qui a prévu qu'à l'horizon de 2017, sa loi prendra fin vu la limite physique imposé qu'est la taille de l'atome.
Avatar de micka132 micka132 - Membre expert https://www.developpez.com
le 21/09/2018 à 10:21
Citation Envoyé par Uther Voir le message
Quelle vision? Il s'est contenté d'enfoncer une dizaine de portes ouvertes.
Citation Envoyé par SimonDecoline Voir le message
C'est clair.

En même temps, le gars a 70 ans et est à la retraite depuis au moins 2 ans donc bon, sa vision n'est peut-être plus aussi perçante qu'avant.
Ouverte pas pour tout le monde.
Regarde ton navigateur la consommation de tes onglets, avec pour cause des piles de Framework pour afficher 3 boutons, regarde les outils type Electron.
Moi j'ai l'impression au contraire que ces dernières années l'optimisation c'est le dernier des soucis et c'est probablement dû à l'habitude d'avoir des machines toujours plus performante.
Avatar de Pascalz2015 Pascalz2015 - Nouveau Candidat au Club https://www.developpez.com
le 21/09/2018 à 13:08
"la réécriture de Python en C permet de multiplier la performance des programmes par 50".

je ne sais pas trop quoi penser de cette phrase, vous, vous en pensez quoi ?
Contacter le responsable de la rubrique Accueil