Datacenters : Lenovo lance des solutions d’appoint pour l’IA
Le constructeur développe de nouveaux modèles de datacenters modulaires afin de permettre aux entreprises d’utiliser l’IA sans nécessairement remettre en cause leurs investissements passés.
Il trône en majesté dans la salle d’exposition du Smart Innovation Tour de Lenovo qui fait escale à Paris. Quoi ? Un container semblable à ceux qui voyagent tous les jours sur les océans et les routes du monde. S’il s’agit de la même bonne vieille boîte métallique, le contenu est différent. Point de chaussures ou autres objets divers, mais des serveurs installés en racks, refroidis par eau et que l’on peut déplacer au gré des besoins.
« L’arrivée de ChatGPT et des autres IA génératives a été un déclencheur, y compris en France, pour une mise à jour massive des infrastructures IT. Nous pouvons le constater à la taille des contrats qui sont arrivés pour notre société », lance Cyril Fakiri, responsable des infrastructures au sein de Lenovo France.
Toutefois M. Fakiri souligne qu’il existe énormément de contraintes, notamment économiques. Car ces serveurs de nouvelle génération coûtent extrêmement cher. Jean Christophe Morisseau, directeur de la division Infrastructure, renchérit : « nous nous apercevons que de plus en plus d’entreprises explorent ces sujets de mise à jour de l’IT pour l’IA. Mais, pour le moment, peu sont passées à l’acte. Notre travail est de les accompagner, en particulier en intégrant la dimension de souveraineté ou, plus exactement, d’autonomie numérique qui est de plus en plus demandée. »
« Il faut néanmoins bien comprendre que réclamer une IA souveraine française est une chimère. Il faut plutôt réfléchir en matière de choix des dépendances. Et c’est dans ce contexte que nous pouvons démontrer une vraie valeur ajoutée », ajoute-t-il.
Cette montée en puissance de l’intelligence artificielle s’accompagne nécessairement d’un développement important des infrastructures et ces entreprises se retrouvent désormais confrontées à des contraintes très fortes en termes de maîtrise de l’énergie, maîtrise de la puissance et d’engagements dans le domaine de la RSE.
Entraîner en cloud, utiliser sur site
L’une des options pour la mise en place d’infrastructures puis d’applications d’IA dans les entreprises consiste à passer par une architecture hybride. Soit une IA qui est entraînée ou personnalisée en cloud, de sorte à exporter les calculs les plus importants, puis utilisée sur site.
Mais même dans cette optique, l’entreprise ne peut totalement faire l’impasse sur la mise à jour de son infrastructure. Car le véritable enjeu demeure la qualité des données, qualité qu’il faut calculer sur site, où se trouvent les données les plus récentes.
« Les grands modèles d’IA générative qui sont utilisés dans les clouds publics sont susceptibles d’halluciner. D’où la volonté de les restreindre et d’utiliser du RAG (processus de génération augmentée par récupération d’information) afin que les LLMs restent cohérents en s’appuyant à la fois sur les connaissances acquises lors de leur entraînement, mais également sur les données les plus importantes que fournit l’entreprise cliente », indique Jean Christophe Morisseau.
D’où la notion de Edge computing, à savoir muscler un minimum la partie inférence, laquelle peut s’étendre à l’ordinateur portable ou au mobile. Sur site se posent des problèmes d’espaces disponibles pour les datacenters. Pour cette raison, le constructeur a imaginé un container qui embarque l’ensemble des dernières technologies et peut être installé à peu près n’importe où.
« C’est une forte tendance émergente, et pas seulement chez Lenovo. Cela apporte de la flexibilité, de la modularité, sans remettre en cause l’existant et en permettant de tester ces nouvelles possibilités autour de l’IA et des données », souligne M. Morisseau.
Passer au refroidissement liquide pour économiser
L’autre option consiste à faire tous les calculs sur site. Dans ce contexte, Lenovo explique rencontrer un intérêt nouveau de la part des clients pour le refroidissement par eau des datacenters. Ces solutions apportent de tels gains en termes de place, de consommation énergétique et de puissance, que les entreprises n’auraient plus besoin de dépendre des hyperscalers et pourraient se réapproprier leurs infrastructures, y compris pour les tâches nécessitant de la haute performance.
Il faut en effet savoir que l’utilisation classique de l’air pour refroidir un datacenter consomme entre 30 et 50 % de l’énergie globale. On parle de PUE (Power Usage Effectiveness), c’est-à-dire l’indice d’efficacité énergétique. Il se calcule en divisant l’énergie totale consommée par l’énergie consommée uniquement par les machines composant le datacenter. Au milieu des années 2000, le PUE moyen était de l’ordre de 2,5 et l’objectif est désormais d’atteindre 1,3 à l’horizon 2030.
« Nous avons calculé que cette température de 45 degrés était la température optimale pour arracher les calories excédentaires des serveurs sans avoir besoin de dépenser trop d’énergie en refroidissement. »
Cyril FakiriResponsable des infrastructures, Lenovo France
Lenovo dispose des technologies et brevets d’IBM dans le domaine du DLC (Direct Liquid Cooling). Dans ses systèmes, baptisés Neptune et qui peuvent également être intégrés aux containers, le constructeur fait entrer l’eau à une température de 45 degrés Celsius dans les serveurs. Après avoir refroidi les machines, cette eau repart à une température à 60-65 degrés.
« Pour faire de l’eau froide, il faut de l’énergie. Aussi, si l’on dépense de l’énergie à refroidir, le coût n’en vaut pas la chandelle. Avec notre expérience, nous avons calculé que cette température de 45 degrés était la température optimale pour arracher les calories excédentaires des serveurs sans avoir besoin de dépenser trop d’énergie en refroidissement », explique Cyril Fakiri.
Ce choix amène plusieurs avantages. Le premier est de supprimer l’ensemble des ventilateurs au sein de la machine, lequel consomme entre 20 % et 30 % de l’énergie totale. Notons que la sixième génération de la solution Neptune utilise en effet le refroidissement par eau pour l’ensemble du système, y compris la mémoire. La conséquence est également de gagner de la place et ainsi pouvoir densifier les baies. Enfin, cela permet d’éliminer la quasi-totalité de la climatisation de salle.
Dans Neptune, l’eau se déplace en circuit fermé. Pour autant, il suffit d’ajouter un échangeur thermique pour réutiliser les 65 degrés en sortie en géothermie, en chauffage urbain. Et, dans un contexte de RSE, cette dimension intéresse de plus en plus les entreprises privées comme les marchés publics.
Accessoirement, le système de refroidissement liquide ne va plus devenir une option, mais une obligation. « Dans le domaine de l’IA, nous avons déjà des clusters de serveurs qui consomment 150 kWh. Et lors des dernières annonces, Nvidia parle de systèmes Blackwell DGX à 300 puis 700 kWh. Nous arrivons donc à une contrainte et une limite physique, car l’air ne suffit plus à refroidir l’ensemble », poursuit M. Morisseau.
« S’il fallait encore consacrer la moitié de l’énergie consommée à dissiper la chaleur, cela produirait des factures d’électricité énormes. Pire, à ces échelles, les systèmes de climatisation par air froid ne peuvent de toute façon plus fonctionner », dit-il.
Global et pas chinois
« Premièrement la société est cotée à Hong-kong. Ensuite, nous disposons d’unités de fabrication partout dans le monde. »
Jean Christophe MorisseauDirecteur de la division Infrastructure, Lenovo France
Interrogé sur le fait que l’entreprise est chinoise, ce qui pourrait être un handicap sur des secteurs sensibles, M. Morisseau nuance : « nous ne sommes pas un acteur chinois, mais un acteur global. Premièrement la société est cotée à Hong-kong. Ensuite, nous disposons d’unités de fabrication partout dans le monde. Aussi, si vous me demandez de bâtir un supercalculateur en Europe, nous sommes capables de le faire depuis notre usine de Hongrie et c’est ainsi sur tous les continents. »
« Enfin j’ajoute que nous fabriquons nous-mêmes nos composants de cartes-mères, ce qui nous permet d’ailleurs de livrer des machines spécifiques en marque blanche à certains hyperscalers. Notre chaîne logistique a été placée dans le top 10 mondial par le groupe Gartner ».
Interrogé sur l’éventuelle présence de backdoors au sein de ses serveurs, M. Morisseau affirme que le Bios est auditable et que les mises à jour de firmwares sont opérées depuis les États-Unis, précisément en Virginie avec un système de traçabilité très fin, dans l’optique de rassurer les clients opérant dans des industries sensibles. Cela aurait permis à Lenovo de remporter plusieurs gros contrats dans le secteur de la Défense, notamment aux États-Unis.