IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La consommation d'énergie des datacenters ralentit aux États-Unis
Une tendance favorisée par une meilleure gestion

Le , par Coriolan

47PARTAGES

8  0 
Avec la généralisation des datacenters qui a commencé il y a plus d’une décennie, leur consommation d’électricité a explosé de 24 % de 2005 à 2010. Mais selon une étude d’un laboratoire du département de l’Énergie américain, cette consommation devrait se stabiliser entre 2014 et 2020. Le passage à la virtualisation, le cloud computing et l’amélioration du management des datacenters devraient aider à stabiliser la demande d’énergie, elle ne devrait croître que de 4 % durant cette période.


Le parc des centres de données américains a consommé 70 milliards de kWh, soit 1,8 % de la consommation totale d’électricité aux États-Unis. En se basant sur les données disponibles aujourd’hui, l’étude prévoit que le total de la demande d’énergie des datacenters va atteindre 73 milliards de kWh. Si la consommation de l’énergie va stagner durant les prochaines années, cela ne veut pas dire une baisse de la demande des centres de données, explique l’étude. La puissance de calcul et la productivité accrue que permettent les centres de données font qu’ils continuent d’être de plus en plus plébiscités.

Cette tendance d'économiser la consommation d’énergie des datacenters s’explique par le recours à des techniques qui sont à la fois matérielles, mais aussi logicielles. Premièrement, les serveurs modernes sont moins gourmands en énergie. Deuxièmement, l’utilisation de la virtualisation permet de réduire massivement l’empreinte environnementale des datacenters. Les machines virtuelles sont essentielles dans l'architecture des centres de données, notamment grâce à leur capacité d'isolation, de consolidation et de migration. En plus de cela, elles permettent aux centres de données de fournir aux utilisateurs des solutions sécurisées, flexibles et efficaces. Cependant, certaines opérations sur ces machines virtuelles peuvent être coûteuses en énergie, c'est le cas des migrations. Les migrations consistent à transférer des machines virtuelles d'une machine physique à une autre. Si elles sont coûteuses en énergie, elles permettent d'éteindre les serveurs peu utilisés d'où une baisse de la consommation d'énergie et de consolider la charge de travail.

L’efficacité énergétique est aussi importante pour les grands opérateurs du cloud, notamment pour améliorer leur marge. Les datacenters massifs (datacenters hyperscale) qui s’étendent sur des hectares permettent de concentrer les charges et les opérations à une échelle industrielle. Ainsi le recours aux services de ces datacenters permet de réduire la consommation d’énergie. Cette quête de l’efficacité s’observe aussi dans les livraisons de serveurs. Entre 2000 et 2005, la livraison de ces machines augmentait de 15 %, ce qui a permis de doubler le nombre de serveurs durant cette période. Cette tendance a été frappée de plein fouet durant la crise économique. Et à présent, le taux actuel varie autour de 3 % et il est appelé à se maintenir jusqu’à 2020, selon l’étude.

« Je suis même encore plus optimiste que les auteurs de l’étude, écrit Urs Hölzle, le vice-président de Google en charge des infrastructures, dans un billet de blog. Et j’irais même jusqu’à prédire que la consommation totale d’énergie va diminuer à mesure que les utilisateurs d’IT se tournent vers les clouds publics, qui non seulement possèdent les bâtiments les plus efficaces, mais qui, via la consolidation et la mise à l’échelle élastique, réduisent l’énergie consommée par application. »

Source : Étude

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

Forum Cloud Computing

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de abriotde
Membre chevronné https://www.developpez.com
Le 30/06/2016 à 14:07
Je n'y crois pas pour au moins 2 raisons :
1) Le prix baisse sans arrêt a tous les niveaux et qui dit baisse de prix dit baisse de la vigilance en clair programme moins optimisé. On ressent le besoin d'optimiser s'il y a un problème de puissance matériel ou de coût d'infrastructure ce qui est plus rarement le cas quand on a de la puissance pas cher. Entretenir 3 serveurs locaux est complexe et coûteux mais si l'on peux s'en procurer 6 en cloud pour le même prix on ne réfléchis plus. Ensuite la virtualisation entraîne une surconsommation (moindre avec la virtualisation très light de Docker) alors même si d'un côté on optimise l’utilisation le bénéfice global est faible (du moins d'un point de vue consommation).
2) Les besoins sont en constante croissance (exponentiel) avec l'arrivé de l'intelligence artificielle entre autre pour apporter toujours plus d'automatisation et de pertinence. La preuve par l'histoire, les ordinateurs consomment toujours moins d'énnergie par "flop" mais la consommation a toujours augmenter. En clair par le passé augmentait la finesse mais on augmentait aussi la fréquence et donc la puissance consommé restait identique (a cause de lois physique d'échauffement on ne pouvait pas faire plus)
0  0