IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft déploie un datacenter sous-marin en Écosse pour réduire la facture d'énergie
L'avenir du datacenter réside-t-il sous la mer ?

Le , par Coriolan

215PARTAGES

10  0 
L'avenir du datacenter réside-t-il sous la mer ?
Avec son projet Natick, Microsoft espère réduire les temps de latence, mais aussi de déploiement

Microsoft a dévoilé son projet Natick qu'il a présenté comme étant un « projet de recherche pour déterminer la faisabilité des centres de données sous-marins », l'objectif étant de comprendre les bénéfices aussi bien que les difficultés dans le fait de déployer des centres de données sous-marins de par le monde.

Pourquoi le projet Natick ? Tout d'abord, Microsoft remarque que le cloud computing continue de gagner en importance, représentant à la fois un catalyseur de croissance économique, mais aussi comme consommateur de ressources mondiales. Aussi, le projet va se concentrer à aider à façonner une autre perspective dans la gestion du cloud qui pourrait mieux servir les utilisateurs dans les zones proches de cours d'eau. Microsoft voit dans le déploiement en eaux profondes une solution au refroidissement, aux énergies renouvelables, mais aussi à une empreinte environnementale moindre.

Microsoft réfléchit également à la possibilité de l'associer à un autre système pour pouvoir l'alimenter en électricité, par exemple une turbine ou un système générant de l'énergie marémotrice.

Il faut rappeler que les centres de données contiennent de nombreux serveurs qui génèrent beaucoup de chaleur. Lorsque la chaleur est trop forte, les serveurs plantent. Raison pour laquelle ils sont placés dans des zones où l'air conditionné fonctionne en permanence. Cette solution de Microsoft pourrait donc à la fois être écologique et économique dans la mesure où il n'y aurait plus à payer cette lourde facture.

Quels en sont les avantages ? Microsoft parle d'une rapidité de mise en service (la capacité de déployer un centre de données du début à la fin en 90 jours) ce qui va permettre une réponse rapide à la demande du marché, un déploiement rapide en cas de catastrophe naturelle ou d'évènements spéciaux comme la Coupe du monde. Il faut également compter sur la latence (le temps mis par une donnée pour aller de la source à sa destination) : « la moitié de la population vit à moins de 200 km de l'océan. Alors, déployer des centres de données en mer accroît la proximité entre le centre de données et la population, réduisant ainsi la latence de façon considérable et fournissant une meilleure réponse ».

Leona Philpot, le nom du prototype développé par Microsoft (inspiré du personnage du même nom dans le jeu Xbox Halo Nation), a été déployé sur les côtes californiennes en août 2015. Après une série de tests qui se sont avérés concluants, Leona Philpot retourne à Redmond en décembre 2015 pour analyse et réparations.



Equipe Natick : Eric Peterson, Spencer Fowers, Norm Whitaker, Ben Cutler, Jeff Kramer (de la gauche vers la droite)

Les chercheurs avaient quelques inquiétudes sur les pannes matérielles qui pouvaient survenir ou les fuites. Le système sous-marin est équipé d'une centaine de capteurs différents pour mesurer la pression, l'humidité, le mouvement ainsi que d'autres paramètres afin de mieux comprendre les conditions d'opération dans un tel environnement.

Le système ayant tenu, les ingénieurs pensent à prolonger le temps imparti à l'expérience, mais également à tester des projets commerciaux du service Cloud Azure. Le groupe de recherche a déjà commencé à concevoir un système sous-marin qui sera trois fois plus grand qui sera couplé à un système d'énergie alternative qui n'a pas encore été choisi. L'équipe pense qu'un nouvel essai pourrait être amorcé au début de l'année prochaine près de la Floride ou en Europe du Nord.

« La première fois que j'en ai entendu parler, je me suis dit « eau... électricité, pourquoi faire ça ? ». Mais quand vous prenez la peine d'y penser, en fait c'est logique », a avancé Ben Cutler, un ingénieur Microsoft qui a travaillé sur le système de Natick.

Un déploiement de centre de données Natick est supposé durer jusqu'à cinq ans, ce qui équivaut à la durée de vie des ordinateurs qu'il embarque. Après un cycle de déploiement de cinq ans, le centre de données sera retiré de l'eau, les ordinateurs changés, et il sera à nouveau déployé. La durée de vie d'un centre de données Natick est d'au moins vingt ans, période après laquelle il doit être récupéré et recyclé.

Source : projet Natick
Vous avez lu gratuitement 812 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sinople
Membre chevronné https://www.developpez.com
Le 07/06/2018 à 15:33
Moi je croyais que le cloud c'était dans les nuages pas sous l'eau...
6  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 25/06/2024 à 17:53
Donc en gros, le projet il est tombé à l'eau, et ils cherchent à noyer le poisson en disant avoir arrêté mais sans énumérer le moindre inconvénient de leur solution. Pourquoi donc ? Probablement parce qu'ils ne veulent pas se mouiller en avouant leur propre faiblesses. Peut-être que Windows n'est pas aussi imperméable qu'il le souhaitaient, ou qu'ils se sont dit que les techniciens réseau en scaphandre c'était pas des masses pratique. Un coup d'épée dans l'eau.
6  0 
Avatar de yoyo3d
Membre éprouvé https://www.developpez.com
Le 07/06/2018 à 10:09
cette étude est une bonne chose, au moins parce qu'elle à le mérite d'essayer d'apporter des réponses au problème de refroidissement des data center...

Il ne sera pas possible de réparer les ordinateurs s’ils tombent en panne, mais les chercheurs espèrent que le taux de défaut des machines sera plus réduit que dans les datacenters classiques."
le taux de défaut des machine est relatif... alors si ça tombe en panne quand même!! parce que ça va tomber en panne, peut être pas demain ni après demain, peut être pas tout le système, mais 1 ou 2 puis 3 etc. Clairement pour moi c'est la première difficulté..

ensuite, je me dis que le refroidissement par l'eau de mer peut être une bonne chose , mais le problème c'est justement le rejet de la chaleur dans le milieu sous marin qui peut (qui va?) favoriser le développement d'algue et de micro organismes invasif et déséquilibrer la faune et la flore locale...
c'est déjà le cas prêt des centrales qui rejettent leurs eaux de refroidissement en mer... alors évidement on ne peut pas comparer la température des eaux provenant des centrales à celle des data center immergées...mais quand même...
5  0 
Avatar de Anselme45
Inactif https://www.developpez.com
Le 25/06/2024 à 16:31
Si cette "brillante" expérience avait vraiment été un succès, elle n'aurait pas été arrêtée CQFD
6  1 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 26/06/2024 à 8:37
Citation Envoyé par Anselme45 Voir le message
Si cette "brillante" expérience avait vraiment été un succès, elle n'aurait pas été arrêtée CQFD
Il faut quand même reconnaitre que même si ça n'est pas viable commercialement, c'est quand même une réussite technique si le système a pu fonctionner efficacement des années sans intervention humaine dans un environnement particulier avec un système de refroidissement d'un nouveau genre.

Citation Envoyé par Pierre Louis Chevalier Voir le message
C'est évident que c'était une mauvaise idée, bon maintenant pour rembourser le cout de ce projet à la noix il ne reste plus qu'à mettre des pubs sur le menu de démarrage de Windows 11
C'est le principe de la R&D, on essaie des truc, on sait bien qu'une bonne partie ne donnera pas de suite mais c'est un risque que l'on prend pour ne pas stagner, et il y a souvent des leçons a retenir, même des échecs.
4  0 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 15/09/2020 à 13:12
La chaleur dégagée n'est pas suffisante pour échauffer significativement les températures globales, pas plus que les data-center en surface ne réchauffent significativement l'air.
Par contre, ce qui élève significativement la température de l'air, comme des océans, c'est les émissions de CO2 nécessaires à leur fabrication et alimentation.
4  1 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 25/06/2024 à 16:41
C'est évident que c'était une mauvaise idée, bon maintenant pour rembourser le cout de ce projet à la noix il ne reste plus qu'à mettre des pubs sur le menu de démarrage de Windows 11
4  1 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 26/06/2024 à 8:59
Oui mais quand on teste une techno qui ne fonctionne pas, ça ne fonctionne pas et puis tant pis.
Là on a pas besoin d'avoir fait Saint-Cyr pour savoir que le problème d'un truc comme ça c'est l'étanchéité et la capacité d'intervention avec donc double enjeux de la destruction du matériel et des données et de la capacité à maintenir le service.

A cela s'ajoute le pourquoi : moins consommer d'énergie pour le refroidissement ? Bof, on est loin des leviers d'optimisation énergétique a savoir en 1) mieux(moins) utiliser les machines, 2) avoir des machines plus efficaces (moins consommer pour le même boulot) et 3) valoriser l’énergie qui est consommée (la fameuse énergie fatale)

Dans l'objectif comme dans la sûreté de fonctionnement ce truc a aucun sens. greenwashing pur.
3  0 
Avatar de Drowan
Membre éprouvé https://www.developpez.com
Le 07/06/2018 à 7:58
Citation Envoyé par AdmChiMay Voir le message
Pour baisser la facture d'énergie, ils pourraient aussi tabler sur les marées et courants marins : des hydroliennes tapies au fond ?
C'est ce qu'il font : "This datacenter runs entirely on renewable energy [...] powered by a combination of solar panel, wind power, and offshore tidal and wave energy" (1:35 de la video)
Citation Envoyé par Aiekick Voir le message
la maintenance va couter cher
A priori c'est pas prévu de le maintenir: "Il ne sera pas possible de réparer les ordinateurs s’ils tombent en panne, mais les chercheurs espèrent que le taux de défaut des machines sera plus réduit que dans les datacenters classiques."


2  0 
Avatar de Anselme45
Inactif https://www.developpez.com
Le 16/08/2018 à 11:52
Citation Envoyé par earhater Voir le message
Par contre tu ne semble pas voir l'économie en terme de cuivre (pour délivrer les données au plus près des utilisateurs) ainsi que énergétique (réduction des déchets nucléaires ou de la consommation des denrées fossiles)de ce projet.
1. La fibre optique fait plus pour l'économie du cuivre que les datacenters sous les mers!

2. Je ne vois pas en quoi "Balancer un datacenter au large des cotes californiennes" rendrait les données plus proches de l'utilisateur vivant en Ardèche

3. Il n'est pas nécessaire de faire dans l'exotisme technique pour faire dans l'économie d'énergie:
  • premièrement, parce que cela coutera toujours plus cher (en argent et en énergie grise) de placer un datacenter équivalent dans un milieu hostile plutôt que sur le plan des vaches
  • deuxièmement, parce qu'il est facile de récupérer l'énergie perdue des datacenters conventionnels pour la réutiliser (par exemple, pour du chauffage à distance)


On a simplement affaire içi à une affaire de communication du style "les spectateurs du stade de foot vont voir leurs pop-corn livrés par les airs à l'aide de drones"!
2  0