ESUN, la nouvelle norme réseau des grands clusters d’IA
L’ Ethernet for Scale-Up Networking est un nouveau projet visant à définir des mécanismes pour communiquer en réseau au sein de très grands clusters d’IA, potentiellement étendus sur plusieurs datacenters, en minimisant la latence.
Dans trois ans, les plus grands clusters d'IA au monde seront en grande partie assemblés sur un réseau Ethernet. C'est ce qu'a affirmé Broadcom lors d'une présentation au sommet ONUG Fall 2025 AI Networking Summit. Broadcom collabore avec d'autres grands acteurs de l’infrastructure, comme AMD, ARM, Cisco, HPE, Meta, Microsoft, Nvidia, OpenAI et Oracle, pour développer le projet Ethernet for Scale-Up Networking (ESUN). Leur objectif est de faire progresser les réseaux Ethernet dans le domaine en pleine expansion des clusters d'IA de grande échelle.
Selon un rapport McKinsey datant d'avril 2025, les investisseurs en infrastructures prévoient d'ajouter 124 gigawatts de capacité de calcul aux centres de données entre 2025 et 2030. OpenAI, qui vise à contribuer à hauteur de 20 % à cette capacité au cours des cinq prochaines années, estime que ses clusters mettront en réseau environ 75 millions d'unités de traitement exponentiel (XPU). XPU est l’acronyme générique pour toutes les unités de traitement spécialisées qui contribuent à accélérer les traitements en IA : GPU, TPU, DPU...
Les réseaux joueront un rôle de plus en plus important dans cette expansion. Outre l’interconnexion de millions de XPU disparates, ils doivent rester capables de fournir à grande échelle l'équilibrage de charge, le contrôle de la congestion et les mécanismes de défaillance. Il s’agit de construire des clusters qui s’étendent au-delà d’une rangée de baies racks dans un datacenter, voire au-delà du datacenter.
Les trois échelles des réseaux pour l’IA
Il y a trois échelles de réseaux dans une infrastructure d’IA : Scale-up, Scale-out et Scale-across.
Réseaux Scale-up. Un réseau Scale-up est un réseau à l’échelle d’une baie rack. En général, il sert à interconnecter une centaine de cartes accélératrices. L’enjeu du projet ESUN est de concevoir un réseau à saut unique entre deux XPU pour atteindre une latence minimale. Idéalement, tous les accélérateurs doivent être directement connectés et chacun doit pouvoir accéder instantanément à la mémoire des autres.
Réseaux Scale-out. Les réseaux Scale-out interconnectent plusieurs baies racks et doivent relier des milliers de XPU au sein d'un seul datacenter. L'architecture devient plus complexe à ce stade. L'équilibrage de charge et le contrôle de la congestion sont extrêmement difficiles. L’enjeu du projet ESUN est de passer de cinq sauts actuellement entre deux XPU qui ne se trouvent pas dans la même baie à seulement trois sauts. Cela revient à diviser par trois le nombre de switches Ethernet.
Outre réduire la latence, le design ESUN doit aussi permettre de diminuer le nombre d’embouts optiques qu’on insère dans les connecteurs Ethernet pour véhiculer les signaux sur des fibres. Ces embouts coûtent non seulement très cher à l’achat, mais sont aussi particulièrement énergivores. Enfin, enlever des switches reviendra aussi à enlever des risques de défaillance.
Réseaux Scale-Across. Un datacenter de 10 mégawatts peut accueillir environ 6 000 XPU. Les clusters plus importants nécessitent des connexions sans perte entre plusieurs bâtiments, c’est l’objet du réseau Scale-across. Ici, l’enjeu est de parvenir à chiffrer les communications sans que cela ne les ralentisse.
L’enjeu du projet ESUN est de définir les principes de conception de tels réseaux. Cela consiste principalement à spécifier la manière dont le trafic est envoyé à travers les switches Ethernet, avec un transfert de données sans perte, une gestion des erreurs plus optimale et de nouveaux en-têtes de protocole. Il s’agit en particulier de prendre en compte le fonctionnement intrinsèque des XPU en ce qui concerne la répartition de la charge de travail.
D’emblée, le projet ESUN est conçu pour s’articuler avec la norme Ultra Ethernet, de sorte qu’il s’agisse d’un standard que chaque fabricant de carte réseau puisse implémenter. A priori, il devrait aussi s’articuler avec les travaux du consortium UALink qui vise, lui, plus précisément à autoriser de très hauts débits sans perte sur des XPU autres que ceux de Nvidia.
