Plus de la moitié de la population mondiale vit près des côtes, en installant des datacenters dans des conteneurs près des villes côtières, les données auront une distance limitée à parcourir pour atteindre les communautés. Le but, améliorer l’expérience de navigation du web, le streaming vidéo, le jeu en ligne et offrir des expériences authentiques pour les technologies de l’IA.
De la France à l’Écosse
Le datacenter de 12 mètres qu’utilise le Projet Natick prend la forme d’un cylindre blanc, il regroupe 12 baies contenant un total de 864 serveurs et un système de refroidissement de l’infrastructure. Le datacenter a été assemblé et testé en France avant son expédition vers l’Écosse. Une base triangulaire permet de positionner le datacenter au fond de la mer. Et un câble sous-marin alimente le centre de données et lui permet de communiquer avec le rivage et l’Internet.
À travers cette deuxième phase du projet, Microsoft cherche à réduire la facture d'énergie en plaçant les serveurs sous l’eau. De cette façon, les chercheurs espèrent que la température de l’environnement sous-marin pourra refroidir le datacenter.
« Nous pensons que nous obtenons en réalité un bien meilleur refroidissement sous l'eau que sur la surface » explique à la BBC Ben Cutler, responsable du projet. « De plus, parce qu'il n'y a pas de personnel sur le site, nous pouvons retirer tout l'oxygène et la plus grande partie de la vapeur d'eau, ce qui réduit la corrosion, qui est un problème important dans les centres de données. »
Il ne sera pas possible de réparer les ordinateurs s’ils tombent en panne, mais les chercheurs espèrent que le taux de défaut des machines sera plus réduit que dans les datacenters classiques.
La taille de ce datacenter est assez réduite comparée aux centres de données géants qui stockent nos données actuellement. Avec 12 baies de serveurs seulement, il y aura juste assez de place pour stocker 27,6 petabytes de données, soit l’équivalent de 5 millions de films.
Datacenters : épine dorsale d’Internet
Difficile d’imaginer Internet aujourd’hui sans datacenters, ces énormes fermes où les nuages physiques de services cloud tirent profit des économies d’échelle pour stocker et traiter les données, entrainer des modèles d’apprentissage machine et exécuter des algorithmes d’IA.
La demande en termes de ressources de centre de données augmente exponentiellement du fait que les entreprises portent de plus en plus leurs réseaux et besoins informatiques vers le cloud. Puis il y a la prolifération d’objets connectés intelligents qui vont des smartphones aux robots. Cette réalité souligne la nécessité d’innover dans la course au déploiement des datacenters qui sont en train de devenir une pièce critique de l’infrastructure du 21e siècle, explique Cutler.
Le concept de datacenter sous-marin a été présenté au début dans un livre blanc préparé à l’occasion d’un événement de Microsoft appelé ThinkWeek. Cet évènement encourage les employés de la firme à partager leurs idées originales. Le groupe de Peter Lee, vice-président de l’IA et recherche chez Microsoft a été vite captivé. En 12 mois seulement après le lancement du Projet Natick en juillet 2014, l’équipe avait déployé un prototype dans les eaux calmes et peu profondes en Californie.
Encouragé par les résultats tirés de cette démonstration, le Projet Natick a entrepris de concevoir et tester le module actuel déployé en Écosse. Cutler a informé que la nouvelle version est conçue pour rester en opération sans maintenance pendant cinq années.
Des ingénieurs installent les serveurs et le système de refroidissmeent associé de l'infrastructure du datacenter sous-marin dans les locaux de Naval Group à Brest, France.
Lors de la phase 2 du projet, l’équipe de Microsoft a reconnu que la conception de datacenters sous-marins nécessite une expertise extérieure. C’est pourquoi la firme a choisi de travailler avec Naval Group, une entreprise française vieille de 400 ans et ayant une expertise globale en ingénierie, manufacture et le maintien de vaisseaux et sous-marins de type militaire ainsi que les technologies d’énergie marine.
L’équipe de Microsoft a présenté à Naval Group les spécifications de son datacenter sous-marin et a laissé à l’entreprise le soin de concevoir et construire le cylindre déployé en Écosse.
« À première vue, nous avons pensé qu’il y a un grand fossé entre les datacenters et les sous-marins, mais en réalité ils ont beaucoup de synergies, » a dit Éric Papin, CTO et directeur de l’innovation chez Naval Group.
Les sous-marins, note-t-il, sont essentiellement des conteneurs à grande pression qui logent une infrastructure complexe de gestion et de traitement de données et d’autres systèmes intégrés selon des besoins stricts en électricité, volume, poids, balance thermique et refroidissement. En réalité, Naval Group a adapté un système d’échange air-eau utilisé pour refroidir les sous-marins pour le datacenter.
Microsoft a choisi l’archipel des Orcades en raison de la présence d’un centre important pour la recherche sur les énergies renouvelables. L’archipel a été l’un des premiers territoires à adopter l'énergie éolienne.
En raison de l’expansion rapide de l’industrie de datacenters, certains s’inquiètent de la facture d’énergie qui s’alourdit. Mais Emma Fryer, qui représente le secteur à Tech UK, pense que cette préoccupation a été exagérée. « Ce qui est arrivé est que nous avons tiré parti de la loi de Moore, » dit-elle.
L’évolution continue de la capacité de traitement des données a fait que ces prédictions sont devenues ridicules, a dit Fryer. « Nous avons été en mesure de gérer les explosions de données avec une seulement une augmentation minime de l’énergie utilisée. »
Néanmoins, elle admet qu’il y a un défi à relever puisque l’industrie continue de croitre et apprécie les expérimentations de Microsoft. « C’est excitant de les voir penser de façon aussi radicale, » dit-elle.
Fryer pense aussi que loger des centres de données près ou sous l’eau est une bonne idée, parce que « 50 % de la population mondiale vit près des côtés. »
Un autre expert n’est pas aussi sûr. Le professeur Ian Bitterlin, consultant en datacenters avec près de 30 ans d’expérience, se montre sceptique vis-à-vis de l’impact environnemental d’aller au fond de la mer. « Vous aurez juste une mer plus chaude et de plus grands poissons, » dit-il.
Et 90 % des datacenters en Europe sont localisés dans de grandes villes comme Londres et Madrid, c’est parce que c’est là où on en a besoin.
Ben Cutler de Microsoft insiste que l’impact de réchauffement sera minimal, « l’eau à quelques mètres en aval sera réchauffée à quelques millièmes d’un degré au maximum » et l’impact environnemental global dans l’archipel des Orcades sera positif.
Pour le moment, l’équipe du Projet Natick va surveiller le datacenter durant les cinq prochaines années pour déterminer si le projet est viable. S’il s’avère un succès, Microsoft envisage de couler à terme des groupes de cylindres permettant de déployer des centres de données offshore en 90 jours seulement. La firme espère à travers ce projet élucider tous les défauts du design pour que cette technologie devienne une réalité partout dans le monde.
Source : Microsoft - BBC
Et vous ?
Pensez-vous que déployer des datacenters sous la mer est une bonne idée ?
Ne serait-il pas plus économique d'installer les datacenters dans des zones froides où l'excès de chaleur pourra être utilisé ?
Voir aussi :
Tous les datacenters et bureaux d'Apple dans le monde sont alimentés à 100 % en énergies renouvelables, pour lutter contre le changement climatique
Google aurait utilisé 100 % d'énergies renouvelables pour alimenter tous ses bureaux et Datacenter en 2017, d'après son premier vice-président
Les infrastructures IT pourraient être alimentées en énergie électrique issue de réacteurs de fusion nucléaire d'ici à 2033