Datacenters : Vertiv joue la carte du tout préfabriqué
Le fournisseur américain de mobilier et d’infrastructures énergétiques pour datacenters lance les SmartRun, des modules d’étagère racks déployables en deux jours au lieu de plusieurs semaines. Ils seraient compatibles avec tous les usages, du web à l’IA.
Vertiv, l’un des fabricants de structures pour datacenters – des baies rack contenant les serveurs aux systèmes de refroidissement, en passant par les blocs d’alimentations électriques et toute la tuyauterie pour faire serpenter câbles et fluides – milite désormais pour du préfabriqué.
« Le SmartRun est un module de base avec quatre étagères racks de chaque côté et une structure au-dessus pour faire passer l’énergie, le refroidissement et les données. Nous pouvons en emboîter six ainsi pour livrer dans votre datacenter un couloir de 48 étagères rack prêtes à l’emploi », assure un chef produit, lors d’une présentation que Vertiv a organisée dans l’un de ces centres, près de Padoue, en Italie, d’où ses modules partent vers toute l’Europe.
« Concrètement, installer des étagères rack et des structures pour faire passer toutes leurs connexions prend traditionnellement des semaines. Avec ces modules, les 48 baies racks sont assemblées en seulement deux jours, montre en main », enchaîne Karsten Winter, qui dirige la région EMEA de Vertiv (en photo en haut de cet article).
« Mais la vitesse d’installation n’est qu’une partie du sujet. En amont, il faut traditionnellement faire le design de la structure, ce qui prend des mois. Et ensuite il faut la tester pour vérifier si elle délivre l’énergie attendue dans tous les scénarios, si elle évacue la chaleur comme prévu. Et, ça, c’est très compliqué à faire. Nous éliminons ce problème avec des designs de référence. Vous nous dites quelle typologie d’infrastructure informatique il vous faut et nous vous livrons des modules qui sont spécialement conçus pour », ajoute Karsten Winter.
Il est à noter que les typologies d’infrastructure sont nombreuses. Par exemple, rien que sur le refroidissement liquide, la plupart des constructeurs souhaitent que l’eau entrante dans leurs serveurs soit à 36°C. Nvidia, en revanche, annonce qu’il supportera l’année prochaine une eau à 45°C sur ses clusters DGX. C’est intéressant, car moins refroidir l’eau entrante permet de réaliser des économies d’énergie. De plus, selon la quantité de composants à refroidir dans un serveur, le débit de l’eau doit être plus ou moins élevé. Vertiv assure pouvoir régler ses équipements pour toutes les situations.
De fait, le site de Vertiv près de Padoue est constitué d’une multitude de bâtiments où s’enchaînent des hautes salles bardées d’instruments de mesure et d’appareils qui simulent divers scénarios électriques et calorifiques. Les clients sont invités à venir constater les métriques des modules qu’ils achètent depuis une salle de contrôle dont les murs sont tapissés d’écrans affichant des courbes et de pupitres pour entrer les conditions d’utilisation.
« Tout ce qui vous sera livré en Europe aura été prétesté ici, électriquement, mécaniquement. En clair, nous éliminons le risque d’ordinaire très élevé d’une mauvaise surprise lorsque votre datacenter entre en production », argumente le chef produit.
La fin des faux planchers
Une caractéristique de ces modules préfabriqués et qu’il n’y a plus de faux plancher. « Historiquement, on concevait un datacenter en séparant bien tous les canaux de distribution. Le froid, voire l’électricité passait sous le plancher, tandis que le réseau et le chaud circulaient au-dessus. Mais ce genre de conception est une vraie perte de temps. À partir du moment où la partie supérieure est idéalement conçue pour tout faire circuler de manière étanche, vous abolissez cette perte de temps », explique le chef produit.
« Et pour aller plus loin dans les détails, je précise que la partie supérieure de notre module contient bien évidemment tous les détecteurs de fuite nécessaires. Par exemple, en refroidissement liquide, si de l’eau se mettait à couler des tuyaux, un logiciel interne déclencherait une procédure – alertes, coupures, etc. – bien avant que cela impacte votre production », argumente-t-il.
Accessoirement, les faux planchers seraient de moins en moins aptes à supporter le poids des baies de serveurs conçues pour les applications d’intelligence artificielle. « Ce n’est pas tant les GPU qui alourdissent les baies, mais plutôt tout le système de refroidissement liquide. Le seul fait de faire circuler de l’eau dans les entrailles des serveurs peut doubler le poids d’une baie », dit-il, avant d’indiquer que le poids d’un module SmartRun de base se situe entre 8 et 10 tonnes.
Lords de la discussion, un responsable de Vertiv intervient pour dire qu’il reste possible de livrer des structures adaptées aux faux planchers, si un client veut simplement étendre le nombre de baies dans une salle conçue ainsi auparavant. Vertiv s’est aussi efforcé de produire des modules assemblables comme des legos pour un tel scénario. Pour autant, le fabricant suggère que ce client ne bénéficierait pas forcément de tous les avantages du SmartRun.
L’enjeu de toujours alimenter et refroidir davantage les étagères rack
L’un des enjeux dont Vertiv veut s’emparer est l’accélération phénoménale des besoins en électricité et en refroidissement des baies de serveurs, les deux étant exprimés avec la même valeur en kilowatts, car 100% de l’électricité consommée se transforme en énergie calorifique.
Ainsi, avant l’avènement de l’IA, une étagère rack constituée de serveurs applicatifs consommait et dégageait au maximum 15 kW, ce qui pouvait amplement être refroidi par simple ventilation. Il y a un an, le refroidissement liquide a commencé à s’imposer pour évacuer les calories de baies remplies de GPU et qui pouvaient atteindre 75 kW par étagère rack. Dans cette configuration, il n’y avait rien à changer en revanche dans la fourniture d’électricité.
« Aujourd’hui, on nous demande de fournir des structures qui supportent 100, voire 150 kW par étagère rack. Et nous savons déjà qu’il faudra supporter jusqu’à 600 kW dans très peu de temps. À un tel niveau d’énergie, l’électricité perdue entre l’alimentation qui amène le courant en 54 volts et les serveurs qui la consomment en 5 volts est considérable », lance un autre chef produit de Vertiv. Selon lui, cette déperdition coûterait non seulement en facture électrique, mais aussi en chaleur à refroidir, sans pour autant servir aux calculs.
Pour mémoire, l’électricité est fournie avec un débit exprimé en volt et les appareils l’aspirent avec une capacité exprimée en ampères. La multiplication des volts par les ampères constitue la quantité d’électricité consommée exprimée en watts, ou en wattheures si l’on parle de facture basée sur le temps de consommation. Quand les ampères augmentent, parce que les serveurs ont besoin de plus d’électricité, il faut multiplier les arrivées en volts, donc augmenter le nombre de conversions d’un lot 54 volts en dix lots de 5 volts. Mais chaque conversion provoque une déperdition d’énergie.
Pour résoudre ce problème, Vertiv travaille avec Nvidia pour fabriquer des alimentations qui amènent dans une étagère rack 800 volts, lesquels seraient répartis entre tous les nœuds de calcul avec une conversion globale qui totalise bien moins de déperditions. « Les baies de serveurs DGX de Nvidia de la prochaine génération Rubin seront conçues pour répartir 800 volts d’ici à fin 2026 et nous serons prêts », assure le responsable de Vertiv qui présente un prototype d’alimentation que le constructeur développe depuis plus d’un an.
S’agissant d’une demande de Nvidia, Vertiv ne sera certainement pas le seul à proposer des alimentations capables de distribuer du courant à partir de 800 volts. « Le point important est qu’il va falloir repenser tout le design des étagères rack pour accueillir de pareilles alimentations. Or, notre module préfabriqué SmartRun, lui, est déjà adapté pour », se félicite notre interlocuteur.
Vertiv CoreOne : jusqu’à un bâtiment clés en main
Et il en va de même pour le refroidissement. Que les serveurs aient besoin ou non de refroidissement liquide, toutes les options sont déjà pensées pour s’emboîter dans un SmartRun.
« D’une manière générale, il y aura encore pendant un moment du refroidissement par ventilation dans les datacenters, car les équipements de stockage de données et de réseau ne sont pas prévus pour du refroidissement liquide. Il y a donc une complexité à fournir du refroidissement hybride. Mais cette complexité, nous en faisons notre affaire, avec des échangeurs thermiques de pointe dont la structure a été pensée jusqu’au moindre micromètre », argumente-t-il.
En fait, au-delà des modules SmartRun, c’est tout l’équipement interne et externe que Vertiv se propose de préfabriquer ; son programme pour le faire s’appelle Vertiv OneCore. Il comprend notamment les modules extérieurs de distribution d’énergie vers les salles et les allées des datacenters (les « skids »), les pompes qui pulsent l’eau depuis une pièce dédiée (les « hydros »), les modules de service pour loger les équipements réseau qui interconnectent les allées de racks, ou encore les échangeurs thermiques à installer sur le toit du bâtiment.
Dans son catalogue OneCore, Vertiv propose même un bâtiment en préfabriqué pour héberger les étagères rack, le « Data Hall ».
Enfin, Vertiv aussi un logiciel, Vertiv Unify, pour superviser l’ensemble des infrastructures énergétiques. « Non seulement vous accédez à toutes les métriques concernant l’électricité et la chaleur en chaque point de votre datacenter, mais le logiciel vous recommande aussi les actions à mener au fil de l’eau pour économiser au maximum vos consommations », vante un autre membre de Vertiv sur le stand dédié à la solution.
Parmi les concurrents de Vertiv, Schneider Electric se plaît à dire que ses outils de monitoring, également basée sur des sondes dans tous ses équipements, sont les plus avancés du marché. En revanche, Schneider Electric insiste beaucoup moins que Vertiv sur une approche préfabriquée. Un autre acteur attendu sur ce marché est Legrand, qui doit bientôt présenter lui aussi des offres adaptées à l’ère de l’IA.
