Et s’il suffisait, pour économiser énormément d’énergie, de profiter des basses températures que l’on rencontre au fond des océans ? C’est en tout cas ce sur quoi travaille Microsoft. 

2% de l’énergie mondiale. C’est, selon Greenpeace, la consommation électrique annuelle des centres de données (dont une bonne partie sert à les climatiser pour éviter une surchauffe). Ces immenses hangars dans lesquels sont stockés des milliers de serveurs permettent à chacun d’entre nous de naviguer en toute fluidité sur internet, d’y regarder des vidéos et, depuis le développement du « cloud », d’y stocker de grandes quantités de données. C’est d’ailleurs ce « cloud », qui sollicite énormément les serveurs, qui inquiète les ingénieurs partout dans le monde, car les internautes en sont de plus en plus friands : en France par exemple, la demande en 2015 était en hausse de 21% par rapport à 2014, année qui avait déjà connue une augmentation de 20%…

Comment faire pour assurer le trafic internet mondial sans pour autant exploser tous les compteurs énergétiques ? Chez Microsoft, l’idée a germé : utiliser le froid des profondeurs marines pour réfrigérer des serveurs immergés. Vous avez bien lu. Nom de code : projet Natick. Dans les tuyaux depuis plus de deux ans chez le géant de l’informatique, une première phase de tests vient de révéler des résultats plutôt concluants. Un premier serveur de petite taille a en effet été immergé pendant trois mois et demi à un kilomètre environ des côtes californiennes, pour étudier la faisabilité d’une telle entreprise.

Découvrir le projet et ce serveur pas comme les autres en vidéo (et en anglais) :

C’est d’ores et déjà un succès puisque l’unité repêchée est en parfait état et a fonctionné normalement durant ces quelques semaines sous l’eau, sans avoir jamais eu besoin d’être refroidie autrement que par les températures sous-marines. Microsoft s’empresse tout de même de rassurer celles et ceux qui pourraient s’inquiéter de l’immersion de tels outils technologiques sous l’eau (une boîte de trois mètres sur deux qui pèse 17 tonnes pour notre prototype) en affirmant que la faune et la flore marines ont parfaitement accepté ce nouvel arrivant sans, il est vrai, donner beaucoup plus d’informations…

Prochaine étape pour la firme de Redmond, immerger un plus gros centre de données, plus longtemps, et imaginer des protocoles d’intervention en cas de dysfonctionnement à 300 mètres de profondeur. Rendez-vous d’ici quelques années.

Photo : pchow98/Flickr/CC