Developpez.com

Le Club des Développeurs et IT Pro

Un ingénieur de Google estime qu'il est temps de créer de nouveaux langages et architectures informatiques

La loi de Moore ayant atteint ses limites

Le 2018-09-19 21:37:49, par Bill Fassinou, Chroniqueur Actualités
À la conférence « The @Scale Conference » de la semaine dernière, l'ingénieur de Google David Patterson a expliqué à une foule d’ingénieurs que « l’échelle de performances à laquelle nous étions habitués » touche à sa fin. « Si vous comptez attendre que les performances de vos processeurs doublent, vous allez devoir attendre longtemps », dit-il.

Selon lui, il n’y a pas de meilleur moment que maintenant pour être architecte informatique. Ajoutant que la loi de Moore est à sa fin, il a expliqué qu’on est en retard par rapport à là où nous en serions si cette loi était encore viable. « Nous sommes déjà à l’ère post-loi de Moore », précise-t-il.


Il faut donc reformer entièrement l’échelle de performances qui régissait l’architecture informatique et pour le professeur Patterson, c’est une bonne nouvelle. « De nouvelles architectures matérielles révolutionnaires et de nouveaux langages logiciels, conçus pour traiter des types spécifiques de problèmes informatiques, ne demandent qu'à être développés. Si les gens veulent travailler dessus, il y a plein de prix Turing qui attendent d’être remportés », a-t-il déclaré.

Rappelons à toutes fins utiles que le prix Turing est l’équivalent en informatique du prix Nobel. C’est une récompense accordée à un « individu sélectionné pour des contributions d'importance technique durable et majeure dans le domaine de l'informatique ».

Sur le plan logiciel, le professeur Patterson, campant sur ses convictions, souligne que la réécriture de Python en C permet de multiplier la performance des programmes par 50. Diverses techniques d’optimisation peuvent être employées afin d'améliorer davantage la performance des programmes selon lui. Sur le plan matériel, le professeur explique que développer des architectures spécifiques à un domaine permettra d'atteindre de meilleures performances dans ce domaine.

Pour le professeur Patterson, il est incontestable que le domaine d’application le plus prometteur pour les nouvelles architectures et les nouveaux langages, c’est l’apprentissage automatique. Pour lui, le non-consensus sur le type d’architecture informatique la mieux adaptée à l’apprentissage automatique représente une colossale source d’opportunités pour que de nouvelles architectures fleurissent. « En fin de compte, le marché décidera. Ceci est un âge d’or pour l’architecture informatique », a-t-il conclu.

Source : IEEE

Et vous ?

Que pensez-vous de la vision du professeur ?

Voir aussi

HP réinvente l'ordinateur avec « The Machine » une nouvelle architecture informatique

Les meilleurs cours et tutoriels sur la programmation et l'informatique professionnelle

Samsung a conçu une nouvelle architecture GPU mobile qui pourrait être utilisée dans les smartphones et les superordinateurs
  Discussion forum
14 commentaires
  • KsassPeuk
    Membre confirmé
    Envoyé par Bill Fassinou
    Pour le professeur Patterson, il est incontestable que le domaine d’application le plus prometteur pour les nouvelles architectures et les nouveaux langages, c’est l’apprentissage automatique. Pour lui, le non-consensus sur le type d’architecture informatique la mieux adaptée à l’apprentissage automatique représente une colossale source d’opportunités pour que de nouvelles architectures fleurissent. « En fin de compte, le marché décidera. Ceci est un âge d’or pour l’architecture informatique », a-t-il conclu.
    Le problème de l'apprentissage automatique, c'est que c'est un domaine de recherche où l'on est capable de déterminer si oui ou non une solution est meilleure qu'une autre sur des jeux de données, mais qu'on est généralement incapable de dire :
    • pourquoi les résultats sont meilleurs,
    • qu'est ce que veut effectivement dire le résultat,
    • comment le résultat a été produit au final,
    • est ce que sur des données autres, ça va continuer à marcher.


    Bref, pour moi, un monde où l'on met de l'apprentissage et de l'IA de partout, c'est un monde où l'on comprend encore moins nos systèmes (et bordel, nos systèmes sont déjà plus que mal compris quand ils ne sont pas tout simplement obscurs - cf des discussions récentes à base de "le code marche (sûr ?), j'ai aucune foutue idée de pourquoi, mais bon gardons ça", systèmes auxquels on va donner encore un peu plus de responsabilités sur des tâches qui impliquent de l'humain. De ce côté, il y a plus que du boulot. Et le problème principal, c'est que c'est des tâches qui ne rapportent pas d'argent. Il est vachement plus efficace de balancer une campagne de marketing pour vanter une sûreté illusoire et que d'effectivement garantir la sûreté d'un système.
  • Uther
    Expert éminent sénior
    Que pensez-vous de la vision du professeur ?
    Quelle vision? Il s'est contenté d'enfoncer une dizaine de portes ouvertes.
  • clorr
    Membre averti
    C'est surtout de la loi de Wirth qu'il faut s'occuper ! Ca fait bien longtemps que nos ordinateurs sont largement assez puissants pour faire tourner ce que 90% des gens font au quotidien, et pourtant, de version d'OS en version d'OS les ordis ralentissent et ça sent fort l'obsolescence forcée.
  • micka132
    Expert confirmé
    Envoyé par Uther
    Quelle vision? Il s'est contenté d'enfoncer une dizaine de portes ouvertes.
    Envoyé par SimonDecoline
    C'est clair.

    En même temps, le gars a 70 ans et est à la retraite depuis au moins 2 ans donc bon, sa vision n'est peut-être plus aussi perçante qu'avant.
    Ouverte pas pour tout le monde.
    Regarde ton navigateur la consommation de tes onglets, avec pour cause des piles de Framework pour afficher 3 boutons, regarde les outils type Electron.
    Moi j'ai l'impression au contraire que ces dernières années l'optimisation c'est le dernier des soucis et c'est probablement dû à l'habitude d'avoir des machines toujours plus performante.
  • Edrixal
    Membre expérimenté
  • Steinvikel
    Membre expert
    avant de parler de l’essoufflement de la loi de Moore, on peut parler des divergences de définition de "la finesse de gravure" en fonction de chaque fondeurs, chaque marques, etc.
    ...certains s'appuyant sur la largeur d'une grille, d'autres sur sa longueur, d'autres sur le pitch, certains prenant compte de l'espacement entre les transistors...
    Bref, il y a toujours eu pas mal d'intox pour une loi sensé projeter l'évolution d'une "densité de transistors", en s'appuyant sur des éléments techniques de l'époque et les tendances d'évolutions constatés.

    EDIT : 10nm et 7nm sont des termes marketeux, encadré par l'ITRS > https://www.hardware.fr/news/14520/itrs-prepare-apres-loi-moore.html
    Si à première vu "10" et "7" semblent bien distincts : 30% de moins (dans un sens), 45% de plus (dans l'autre sens). Les différents processus de fabrication propre à chaque fondeur rend ce terme bien plus flou, à tel point que le 10nm de machin et le 7nm de bidule, affiche en pratique, un pitch presque identique.
    Ce qui serais pertinent, ce serait de définir la finesse par le plus petit sillon possible à graver sur une surface, pour un motif géométrique de référence (ou une moyenne de plusieurs motif).
    La question de l'espacement entre les gravures, leur fiabilité/qualité... est quand à elle dépendante des processus de fabrication, pas de la finesse que permet le laser qui les graves.
    un billet de DVP.com sur la question --> 3-nm-5-nm-7-nm-tour-d-horizon-differents-procedes-gravure

    Je pense pas que que nos ordinateurs lents ne le sontpas par de l'obsolescence programmé du moins pas pour la plus grande part. Cette cause est selon moi du au changement du modèle de développement:
    - avant c'était "faisons le meilleur produit, on va éclipser tout nos concurrents !"
    - maintenant c'est "plaçons le produit le plus vite possible sur le marché, on patchera plus tard ! ...on aura plus de visibilité."
  • Envoyé par Uther
    Quelle vision? Il s'est contenté d'enfoncer une dizaine de portes ouvertes.
    C'est clair.

    En même temps, le gars a 70 ans et est à la retraite depuis au moins 2 ans donc bon, sa vision n'est peut-être plus aussi perçante qu'avant.
  • requinham
    Membre régulier
    C'est Moore qui a prévu qu'à l'horizon de 2017, sa loi prendra fin vu la limite physique imposé qu'est la taille de l'atome.
  • Pascalz2015
    Nouveau Candidat au Club
    "la réécriture de Python en C permet de multiplier la performance des programmes par 50".

    je ne sais pas trop quoi penser de cette phrase, vous, vous en pensez quoi ?
  • Uther
    Expert éminent sénior
    Il faut pas se leurrer l'optimisation, on en a toujours fait uniquement quand on en avait besoin. Et en effet, aujourd'hui, pour l'informatique grand public, la différence entre la puissance des machines et les besoins réels fait que ce n'est généralement pas une question (à l'exception des jeux-vidéo et de la vidéo).