Datacenter : Schneider standardise le refroidissement liquide

L’équipementier va commercialiser sous peu des pompes montées en rack pour arracher les calories néfastes aux serveurs d’IA, en faisant circuler de l’eau à la surface de leurs composants. Un moyen d’enfin sortir des bricolages à façon.

Schneider Electric, qui se revendique numéro un mondial des équipements énergétiques pour datacenters, va enfin mettre sur le marché ses solutions standardisées de refroidissement liquide direct. Sept modèles appelés MCU seront présentés, avec une capacité de refroidissement qui va de 102 kW à 2,35 MW. Il s’agit de pompes proposées au format rack et dont la fonction consiste à faire circuler, via des flexibles de plomberie, de l’eau à la surface des composants des serveurs, pour arracher leurs calories bien plus efficacement que ne le font les ventilateurs en soufflant de l’air.

« Le refroidissement liquide direct existe depuis dix ans. Mais le problème est qu’il n’était cantonné jusque-là qu’au secteur ultra-niche des supercalculateurs. Il n’existait pas de solution industrielle, juste des installations conçues au cas par cas. Nous apportons aujourd’hui cette solution standard dont les entreprises ont besoin pour concrétiser leurs projets d’IA dans leurs datacenters », lance Laurent Bataille, le président de Schneider Electric France, lors d’une présentation en avant-première pour la presse.

« La consommation mondiale des datacenters en 2023 était de 105 gigawattheures et elle sera de 255 GWh dans cinq ans. »
Laurent BataillePrésident de Schneider Electric France

Et de contextualiser : « Le marché des datacenters est actuellement en hyper croissance à cause de l’arrivée de l’IA. À notre niveau, nous constatons que leur consommation d’énergie va tripler entre 2023 à 2030. C’est-à-dire que la consommation mondiale des datacenters en 2023 était de 105 gigawattheures et qu’elle sera de 255 GWh dans cinq ans », dit le président de Schneider Electric France.

L’enjeu de standardiser le refroidissement liquide

En l’occurrence, les serveurs chauffent très rapidement quand ils fonctionnent et ils disjonctent au-delà d’une certaine température qu’ils ne devraient donc jamais atteindre. Les fabricants tels que Dell et HPE revendiquent supporter jusqu’à 100 °C, mais il semble plus vraisemblable que la limite raisonnable soit fixée aux alentours de 70 à 80 °C. Jusqu’ici, ils étaient refroidis avec des ventilateurs.

« Le problème est que les ventilateurs ne permettent plus de refroidir les baies de serveurs au-delà de 45 kW d’énergie calorifique », précise Sébastien Cruz Mermy, le directeur Innovation de Schneider Electric France, en évoquant des serveurs de calcul hautement performants pour l’IA qui émettent jusqu’à dix fois plus de chaleur que des serveurs ordinaires.

Pour les propriétaires de datacenters, il n’est pas question de pousser les murs pour ventiler les serveurs d’IA. Leur économie repose sur leur capacité à entasser autant de serveurs de calcul hautement performant par baie rack qu’ils l’ont fait jusqu’ici, avec des serveurs web ou applicatifs. Il leur faut donc remplacer leurs ventilateurs par des pompes bien plus efficaces pour arracher les calories.

En revanche, la tuyauterie nécessaire au refroidissement liquide direct est autrement plus pointue que la simple pose de ventilateurs en façade. Se posent quantité de problèmes d’ingénierie pour éviter les fuites – à cause de l’usure des tuyaux ou simplement quand on remplace un serveur dans une baie –, ou maintenir la pression de l’eau, quel que soit le nombre de serveurs. HPE, Dell, Lenovo mais aussi les hyperscalers s’essaient à des montages qui ne sont pas leur métier. Et ce n’est pas très rassurant au regard des risques d’électrocution, de pannes ou d’incendies que pose une fuite sur des systèmes électriques.

« Nous travaillions depuis longtemps sur le design d’une solution de refroidissement liquide direct. Et nous avons franchi le cap industriel en rachetant en février dernier l’acteur américain Motivair. Nous sommes actuellement en train de transférer leur modèle industriel dans toutes nos régions pour livrer partout dans le monde les mêmes équipements de haute technicité », se félicite François Salomon (à droite sur la photo en haut de cet article), le directeur des produits de refroidissement chez Schneider Electric France.

Pour refroidir de 8U à dix baies racks

Dans le détail, les modules MCDU opèrent deux refroidissements. Celui des serveurs, par de l’eau qui entre dans leurs entrailles à 45 °C. Et celui de l’eau qui en ressort à 65 °C, par la mise en contact avec un circuit d’eau extérieur, lequel arrive dans le MCDU avec une température de 32 °C.

De fait, le plus petit modèle de MCDU de Schneider Electric, qui prend la forme d’un boîtier 4U et s’installe au bas d’une baie rack, ne va capturer qu’environ 50 kW d’énergie calorifique dans les serveurs. Cela correspond grosso modo à huit serveurs DGX GB200 1U de Nvidia (soit 32 GPU et leurs 16 processeurs). Le plus gros modèle tient quant à lui dans une baie rack entière et permet de refroidir une dizaine de baies de serveurs à 120 kW chacune. C’est-à-dire une dizaine de baies DGX GB200-NVL72 qui contiennent 17 serveurs et totalisent 72 GPU.

« Il faut compter 1,5 litre d’eau par minute par kW à refroidir. Cela se traduit par des pompes dans nos MCDU qui ont chacune 2 bars de pression. »
François SalomonDirecteur des produits de refroidissement, Schneider Electric France

« Il faut compter 1,5 litre d’eau par minute par kW à refroidir. Cela se traduit par des pompes dans nos MCDU qui ont chacune 2 bars de pression », précise François Salomon. Un expert technique de Dell donne un autre détail : « cela correspond sur les baies de calcul hautement performant actuelles à une eau qui circule à 3,2 mètres par seconde dans chacun des tuyaux, lesquels ont un diamètre d’un pouce. »

Ni Schneider Electric ni Dell ne le cachent : ces pompes consomment plus d’énergie pour faire circuler tous ces litres d’eau dans les serveurs de calcul que les ventilateurs pour souffler de l’air sur les baies de serveurs web.

« En fait, l’eau est d’autant plus lourde à faire circuler que nous utilisons de l’eau glycolée à 25 %, qui est plus visqueuse que l’eau naturelle. Le glycol n’est pas meilleur pour extraire les calories, mais il présente l’avantage d’être biocide [d’éliminer les “impuretés”, N.D.R.], d’être anticorrosif et de ne pas geler. C’est important, dans le sens où ce sont des équipements que nous transporterons par avion jusqu’au client final et que le liquide doit rester pur », indique François Salomon.

Des portes refroidies à l’eau pour éliminer tout climatiseur

Outre les modules MCDU, Schneider Electric compte commercialiser des portes froides. Il s’agit d’un système de refroidissement par liquide qui, lui, vise à capturer les calories à l’arrière des baies pour les serveurs encore refroidis à l’air. Ces serveurs seront les baies de stockage de données ou les équipements réseau qui ne chauffent pas assez pour que leurs fabricants les adaptent au refroidissement liquide.

« L’idée est de permettre aux propriétaires de datacenters de se débarrasser entièrement de leurs systèmes de climatisation actuels. De toute façon, les baies qui comportent des serveurs de calcul pour l’IA sont bien plus lourdes que les baies de serveurs web. On ne peut donc plus les installer sur les faux planchers conçus pour envoyer, par le bas, de l’air froid dans les allées confinées des datacenters. Il faut poser les baies à même le sol en béton et, donc, éliminer les climatiseurs », affirme Sébastien Cruz Mermy.

« Mais, évidemment, la solution idéale serait que l’ensemble des fabricants de serveurs, baies de stockage et switches réseau conçoivent leurs équipements pour du refroidissement à eau, même s’ils ne dégagent pas plus de chaleur qu’auparavant. Je suis optimiste, je pense que cela arrivera bientôt, car cela contribuera à faire chuter encore le PUE des datacenters », conclut-il.

Pour approfondir sur HPC