Lenovo : « nos super-serveurs sont conçus pour durer plus longtemps »

Dans cette entrevue, le constructeur explique pourquoi son nouveau système de refroidissement Neptune 6 sera le seul à ne pas tomber en panne et pourquoi les serveurs x86 ne devraient plus embarquer de GPU.

Le fabricant de serveurs Lenovo a présenté cette semaine, à l’occasion de son événement annuel TechWorld, deux configurations serveur pour les centres de supercalcul, mais aussi pour les datacenters susceptibles d’héberger des traitements d’IA. Ce sont les lames SC777 v4, à base d’électronique Nvidia GB200 (deux processeurs ARM Grace et quatre GPU Blackwell par lame), et SC750 v4, comprenant quatre processeurs Intel Xeon 6P.

Ces machines sont conçues pour s’installer verticalement dans un nouveau châssis rack de 13U de haut, le N1380, et l’ensemble a besoin d’un refroidissement à eau pour fonctionner. Lenovo revendique avoir mis au point à ce sujet un dispositif inédit, avec des tuyaux bien plus larges que d’ordinaire, le Neptune 6.

Le fait que le refroidissement à eau soit une caractéristique de base et non plus une option s’explique par la dissipation thermique extrême des composants embarqués dans ces machines. Chaque puce de Nvidia dissipe 700 watts et chaque processeur Xeon 6P 500 watts. À raison de 8 lames par châssis et de trois châssis par rack, une étagère rack remplie de lames Nvidia produirait plus de 100 kW de chaleur. Et 48 kW si elle était entièrement composée de lames Xeon 6P.

Si Lenovo est le premier fournisseur à dévoiler de telles configurations haut de gamme, plusieurs de leurs caractéristiques interrogent. Pourquoi Lenovo ne présente-t-il pas de lame basée sur le dernier processeur Epyc 9005 d’AMD ? Pourquoi les lames à base de Xeon 6P sont-elles dépourvues de GPU ? Si Neptune 6 ne correspond à rien d’existant, qu’est-ce que cela implique pour les datacenters qui devront l’héberger ?

Et puis, pourquoi, finalement, conserver un format rack standard, alors que les supercalculateurs adoptent des designs moins contraignants ?

Pour obtenir des réponses à toutes ces questions, LeMagIT est parti à la rencontre de Scott Tease, le patron de la division HPC & IA chez Lenovo (à droite sur la photo en haut de cet article). Interview.

Vous avez conçu vos nouveaux serveurs haute-performance pour qu’ils entrent dans une étagère rack standard. Pourquoi cet effort, alors que vos concurrents en HPC ne s’embarrassent pas de cette contrainte ?

Scott Tease : Les supercalculateurs que fabriquent Eviden et HPE relèvent d’une ingénierie magnifique, sincèrement. Mais ils s’adressent à une niche particulière de clients, alors que nous proposons des produits pour toutes les entreprises.

Notre but était de proposer une solution qui puisse entrer directement dans les datacenters des entreprises. C’est-à-dire pas une étagère rack qui pèse 3,8 tonnes et ferait effondrer leur plancher. Pas non plus une solution qui mesure plus de 2 mètres de haut et ne passerait pas dans leurs ascenseurs.

Accessoirement, une étagère rack remplie de serveurs de supercalcul pourrait facilement consommer 90 ou 100 kW, ce qui est hors norme pour un datacenter. Le fait de proposer des châssis de 13U nous permet de mettre des serveurs de supercalcul dans des étagères qui ne supportent que 20 ou 30 kW.

Les tuyaux à l’arrière de vos châssis ont un diamètre qui ne correspond en rien à celui des arrivées et des départs d’eau dans les systèmes de refroidissement liquide usuels. Comment allez-vous vous connecter à eux ?

« Nous préférons nous associer avec des industriels des CDU plutôt que construire nous-mêmes des solutions. Ce n’est pas le métier d’un fabricant de serveurs. »
Scott TeaseV-P, general manager IA & HPC, Lenovo

Scott Tease : En réalité, nos châssis refroidis par eau sont installés en partenariat avec un fabricant de CDU [Coolant Distribution Unit, ou Unité de Distribution de Réfrigérant, N.D.R.]. Je ne peux pas vous dire lequel, car nous négocions des partenariats région par région, du fait des différentes normes. À tel endroit, vous trouverez du Schneider Electric. Ailleurs, ce sera du Vertiv (ex-APC).

Nous préférons nous associer avec des industriels des CDU plutôt que construire nous-mêmes des solutions. Ce n’est pas le métier d’un fabricant de serveurs.

Le partenariat va au-delà du fait de simplement fabriquer des tuyaux qui se connectent entre eux. Nous travaillons ensemble pour que nos nœuds de calcul communiquent avec le CDU pour ajuster le débit de l’eau en fonction de leurs températures.

Mais pourquoi vos tuyaux ont-ils un diamètre aussi important ?

Scott Tease : Ce diamètre a été pensé pour refroidir un châssis qui pourrait atteindre 40, voire 60 kW. Ce n’est pas le cas aujourd’hui. Mais cela permet à notre solution Neptune 6 d’être pérenne pour toute la décennie à venir.

« [Ce diamètre important] réduit l’énergie nécessaire pour faire fonctionner la pompe. […] Mais, surtout, cela protège mieux l’informatique contre les risques de fuite d’eau sur les composants. »
Scott TeaseV-P, general manager IA & HPC, Lenovo

À l’heure actuelle, ce diamètre plus important nous permet d’avoir des débits très faibles dans les serveurs, de l’ordre de quelques litres par minute à peine. Tout d’abord, cela réduit l’énergie nécessaire pour faire fonctionner la pompe.

Mais, surtout, cela protège mieux l’informatique contre les risques de fuite d’eau sur les composants, car une pression plus faible du liquide endommage moins les tuyaux. Et ce, d’autant plus que le liquide de refroidissement que nous utilisons est de l’eau à 100 % ; alors que nos concurrents sont obligés d’utiliser un mélange d’eau et de glycol pour arracher autant de calories que nous dans des tuyaux beaucoup plus fins. Le problème est que l’eau glycolée est plus visqueuse, donc elle use encore plus les tuyaux fins que l’eau normale.

Et, même, dans le pire des cas, si une fuite devait arriver, il vous suffit d’essuyer pour retirer de l’eau pure, alors que l’eau glycolée va plus imprégner vos composants et sera difficile à nettoyer.

Notre solution est définitivement maintes fois plus robuste que celles de nos concurrents.

Vous proposez une lame Nvidia GB200, la SC777 v4, et une lame Intel Xeon 6P, la SC750 v4. Pourquoi n’y a-t-il pas de lame AMD avec les derniers processeurs Epyc 9005 ?

Scott Tease : Pour la bonne et simple raison que les derniers processeurs Epyc d’AMD ont la même taille physique que leurs prédécesseurs et que, par conséquent, nous pouvons les faire tenir dans des serveurs standards, larges de 19 pouces. Donc, lorsque nous proposerons des serveurs haute performance à base de processeurs Epyc 9005, ils seront vraisemblablement refroidis avec notre système Neptune 5 précédent. En revanche, nous savons déjà que la génération suivante de processeurs Epyc nécessitera notre refroidissement à eau Neptune 6.

Mais pour l’instant ? Même pour Neptune 5, Lenovo ne propose pas de serveurs de supercalcul à base de processeurs Epyc 9005. Pourquoi ?

Scott Tease : Parce que nous n’avons pas encore pris la décision de le faire. Lorsque nous aurons identifié ce qui pourra pousser les clients à choisir un processeur AMD plutôt qu’un processeur Intel (une certaine vitesse mémoire, une certaine vitesse des cœurs…), nous pourrons prendre une décision concernant le fait que nous leur proposerons plutôt maintenant une configuration avec des Epyc de cinquième génération sur du Neptune 5 ou, plus tard, une autre avec des Epyc de sixième génération sur des châssis Neptune 6. Nous n’en sommes qu’au tout début.

Les serveurs x86 que vous proposez pour votre nouveau châssis, les lames SC750 v4 à base de Xeon 6P, donc, sont dépourvus de GPU. Pourquoi ?

Scott Tease : Y aura-t-il encore, demain, un besoin pour des serveurs haute performance à base de processeurs x86 accompagnés de GPU sur carte PCIe ? C’est à AMD et Nvidia, les principaux fabricants de GPU, de nous le dire.

« La question est de savoir si une entreprise aura encore besoin d’un serveur à 250 000 dollars […] quand elle n’aura plus qu’à faire de l’inférence sur des modèles déjà entraînés. »
Scott TeaseV-P, general manager IA & HPC, Lenovo

Ce que nous observons, en tout cas, c’est que nous passons d’une approche où l’IA n’était qu’une question d’extensions PCIe dans un serveur, à une approche où les capacités d’IA se calculent à l’échelle des racks de serveurs, avec des nœuds uniquement x86 et d’autres uniquement Nvidia. C’est en tout cas la direction que prennent les nouvelles plateformes de référence DGX et HGX que Nvidia met au point et que tous nos partenaires travaillent déjà à suivre.

AMD a fait un très bon travail avec ses GPU MI300 et MI325X, mais ce sont des GPU qui s’ajoutent en PCIe à des processeurs. Or, aujourd’hui, la marque qui s’impose, de très loin, en matière d’IA, c’est Nvidia. C’est donc son modèle que le marché a plus tendance à suivre.

La question est de savoir si une entreprise aura encore besoin d’un serveur à 250 000 dollars – le prix moyen d’une configuration x86 qui embarque huit cartes GPU – quand elle n’aura plus qu’à faire de l’inférence sur des modèles déjà entraînés. L’IA générative n’a pas besoin de GPU haut de gamme pour fonctionner.

Pour approfondir sur x86