Serveurs : Schneider Electric industrialisera le refroidissement liquide

Faire circuler du liquide dans les serveurs est la seule solution pour refroidir les calculs intensifs de l’IA. L’équipementier proposera une solution qui permettra d’en finir avec les installations bricolées au cas par cas.

Schneider Electric, le géant français de la gestion, de l’automatisation et de la distribution des ressources énergétiques, a profité de son événement annuel mondial qui se tenait cette semaine à Paris pour présenter les prototypes de ses CDU (Cooling Distribution Unit) dédiés au refroidissement des datacenters par liquide.

Si des dispositifs de cette nature, conçus au cas par cas, sont déjà en production dans certains datacenters, les nouveaux CDU de Schneider Electric doivent permettre de généraliser le refroidissement par liquide dans toutes les installations, avec des solutions industrialisées, elles.

« Le marché des équipements de refroidissement par liquide est en pleine structuration. Les solutions déployées sont souvent fournies clefs en main par les constructeurs des serveurs à refroidir. L’avenir est de composer des baies refroidies au liquide en se fournissant chez tel fabricant de serveurs, tel fabricant d’étagères, tel fabricant qui amène toute la distribution d’énergie et tel fabricant de CDU », argumente François Salomon, directeur Activité Froid & Climatisation de la division Secure Power chez Schneider Electric France (en photo en haut de cet article).

Refroidir par liquide, un impératif pour l’IA

Il y a selon lui un besoin aussi nouveau que critique pour du refroidissement liquide dans les datacenters :

« Aujourd’hui, l’avènement de l’IA a pour conséquence une très forte augmentation de la densité de calcul dans le tout venant des racks de serveurs. Jusqu’à présent, une étagère rack remplie pouvait grimper jusqu’à 4 ou 6 kW, ce que l’on sait très bien refroidir avec des ventilateurs. Désormais, les constructeurs nous annoncent du 30, 40, 50, voire 100 kW dans une seule baie. À ce niveau de chaleur, il n’est plus possible de refroidir avec des ventilateurs, car il faudrait amener une quantité d’air gigantesque qui serait incompatible avec un espace informatique. »

Dans les faits, le processeur d’un serveur applicatif classique génère en moyenne 200 W de chaleur. Un GPU tel que l’actuel H100 de Nvidia, utilisé en IA, génère 700 W. Et son successeur, le B200, générera 1000 W. Dans six unités de rack, il était classique de déployer six serveurs applicatifs (soit un peu plus de 1 kW). Nvidia installe dans le même espace un seul serveur DGX équipé de huit GPUs H100 (soit près de 6 kW).

Surtout, argumente François Salomon, le refroidissement par air augmente proportionnellement avec la consommation électrique des ventilateurs, faisant exploser l’indice PUE d’un datacenter, soit le rapport entre l’énergie totale consommée et celle qui sert à n’alimenter que les serveurs.

En revanche, un liquide est à ce point plus efficace pour absorber des calories qu’il suffit d’en faire circuler un volume bien moindre que celui de l’air. À la fin, les pompes et les échangeurs thermiques des CDUs de Schneider Electric consommeraient des dizaines de fois moins d’énergie que des ventilateurs qui soufflent de l’air refroidi par des climatiseurs.

« À ce jour, en France, les datacenters les mieux conçus ont un PUE de 1,25. Nos calculs nous disent que nos systèmes de refroidissement par liquide feront tomber le PUE à 1,1. C’est-à-dire que pour 1kW consommé pour faire calculer un serveur, il ne coûtera plus que 100 W pour le refroidir », assure François Salomon.

La solution du refroidissement Direct-to-Chip

Il existe principalement deux systèmes pour refroidir des serveurs par liquide. Le premier, sur lequel Schneider Electric travaille sans pour autant avoir déjà des prototypes, est celui de l’immersion des cartes mères dans un bain d’huile diélectrique. Il pose la contrainte de repenser intégralement l’architecture des salles informatiques, car les serveurs ne sont plus installés horizontalement sur des étagères, mais plongés à la verticale dans des bacs.

Le second, qui semble avoir la faveur des fabricants de serveurs, est communément baptisé Direct-to-Chip. Il consiste à faire circuler des tuyaux dans les serveurs. Un flexible bleu de 1cm de diamètre entre dans une machine avec de l’eau glycolée froide, distribue son eau à des plaques métalliques (« Cold plates ») dont le relief interne serpente à la surface des puces à refroidir et un flexible rouge de diamètre similaire récupère l’eau chaude pour la faire sortir du serveur.

« Avec ce système, les constructeurs nous disent qu’il suffit d’avoir de l’eau entrante à 35, voire 40° pour refroidir suffisamment leurs puces. Cette eau ressort à 60°C et est refroidie par l’échangeur thermique avant de repartir vers les serveurs. C’est un circuit fermé. L’échangeur thermique met en contact ce circuit avec un autre réseau, par exemple d’eau de condensation, qui, lui, vient chercher les calories et part les rejeter vers l’extérieur du datacenter », explique François Salomon.

Le circuit de refroidissement est installé à l’arrière des baies rack et prend la forme de deux rangées verticales de manifolds d’où partent et arrivent tous les tuyaux. Ces manifolds sont reliés au CDU qui contient les pompes et l’échangeur thermique.

« Nos CDU ont ceci de spécifique qu’ils sont à pression négative. Cela garantit que, en cas de tuyau arraché ou percé, l’eau glycolée est automatiquement aspirée dans le CDU, sans aucun risque d’endommager les serveurs. Cela rend aussi très simple le changement de serveurs : vous débranchez simplement l’un de ses tuyaux et, automatiquement, le liquide est vidangé vers le CDU », assure le responsable de Schneider Electrics.

Sur son stand dédié aux technologies ayant trait à l’IA, Schneider Electric faisait la démonstration de deux modèles de CDU. L’un prend la forme d’un boîtier rack d’environ 8U installé au bas de l’étagère de serveurs pour absorber 60 kW. L’autre est une armoire à installer à côté d’une rangée d’étagères rack et qui peut absorber 600 kW. Un modèle plus performant absorbant 1 mégawatt est déjà prévu. La commercialisation devrait débuter en 2025.

Pour approfondir sur Architectures de Datacenters

Close