Photonique : Huawei concrétise déjà les réseaux en 800 Gbit/s
L’équipementier chinois dévoile les premiers switches capables de communiquer à la vitesse permise par les nouvelles puces de STMicroelectronics. Ces équipements rentabilisent mieux les investissements en GPU pour l’IA.
Les fibres à connecteurs photoniques capables de transporter 800 gigabits de données par seconde arriveront bien dans les data centers – et même entre les datacenters – à la rentrée prochaine. Au moins chez l’équipementier Huawei qui a profité du salon MWC 2025, cette semaine à Barcelone, pour présenter en avant-première les équipements réseau capables de supporter un tel débit sur chacun de leurs ports Ethernet.
« Le cas d’usage est évidemment l’entraînement des modèles d’IA, ainsi que le supercalcul. Le plus souvent, chaque GPU reçoit 2 x 100 Gbit/s de données. Dès septembre, il sera possible de l’alimenter en données à la vitesse de 2 x 800 Gbit/s. Nous proposons un nouveau switch XH9330 doté de 128 ports, soit la possibilité d’interconnecter 64 GPU à pleine vitesse dans un seul boîtier réseau », se félicite Christophe Batiard, directeur adjoint des solutions réseau chez Huawei pour l’Europe. Et d’ajouter qu’il est possible d’assembler des milliers de tels switches en cluster pour faire travailler ensemble des dizaines de milliers de GPU.
Pour l’heure, les GPU s’accompagnent de cartes réseau offrant, au mieux, un seul port Ethernet 400 Gbit/s (la Nvidia BlueField B3140) ou deux ports 200 Gbit/s (la B3240). Huawei se dit néanmoins prêt pour la génération suivante, susceptible d’être dévoilée à la fin de ce mois, lors de l’événement annuel GTC 2025 de Nvidia.
Le fait est que les ports Ethernet les plus rapides sont jusqu’ici rarement utilisés, car les puces « photoniques » qui convertissent leurs signaux électriques en photons susceptibles de voyager sur des fibres optiques ne fonctionnaient jusqu’ici correctement qu’à la vitesse de 100 Gbit/s. Or, si les liens réseau communiquent à une vitesse inférieure à celle des GPU, ceux-ci sont sous-exploités. En clair, on parle de n’utiliser qu’à 25 % de leur capacité, des puces qui coûtent actuellement 25 000 dollars (le Nvidia H100) et sans doute bientôt 40 000 dollars (le prochain B100).
800 Gbit/s par lien, un progrès (a priori) français
Explication. À la fréquence à laquelle ils sont transmis (26,56 GHz par « fil » pour un port 200 Gbit/s), les signaux électriques des ports Ethernet ne pourraient parcourir que quelques centimètres sur un câble en cuivre. Il est donc d’usage de les véhiculer sur des fibres optiques. Mais encore faut-il convertir l’électricité en photons. C’est le rôle des puces photoniques. Elles sont embarquées dans un embout QSFP, lequel se clipse entre le connecteur Ethernet femelle de la machine et l’extrémité d’une fibre optique classique.
Si les connexions les plus répandues communiquent en 100 Gbit/s, c’est parce qu’en 200 et 400 Gbit/s, les embouts QSFP consomment beaucoup d’énergie, chauffent bien trop et sont suffisamment rares sur le marché pour valoir une fortune. Soit plus de 1 500 € le petit connecteur long d’environ 7 cm. C’est cinq fois le prix normal.
Ce problème aurait été résolu par le fondeur franco-italien STMicroelectronics qui a récemment annoncé parvenir à graver dans son usine de Crolles, près de Grenoble, une toute nouvelle génération de puces photoniques, peu énergivores et huit fois plus rapides que les connectiques les plus courantes. STMicroelectronics se dit suffisamment confiant dans la technique de gravure hors pair qu’il a mise au point pour que la production ne soit pas défaillante, donc pour qu’il n’y ait ni pénurie ni tarifs hors de prix.
Si Christophe Batiard confirme que Huawei se fournit régulièrement chez STMicroelectronics pour certaines de ses puces, il ne se prononce pas quant à la provenance de celles qui équipent les nouveaux connecteurs optiques 800 Gbit/s que Huawei a dévoilé lors du MWC 2025. Mais STMicroelectronics revendique de son côté une exclusivité mondiale.
Accélérer d’autant la répartition de charge
Outre supporter d’émettre (et de recevoir) 800 Gbit/s, l’intérêt du switch XH9330 est qu’il dispose de techniques de pointe pour limiter les engorgements.
« L’intérêt est de pouvoir ralentir un GPU momentanément à une extrémité du réseau pour éviter que son trafic surcharge l’autre extrémité, ce qui engendrerait des incohérences dans l’ensemble du calcul. »
Christophe BatiardDirecteur adjoint des solutions réseau chez Huawei pour l’Europe
« Non, nous n’utilisons pas le protocole Spectrum-X qui est propriétaire sur les switches et cartes réseau de Nvidia. Mais nous avons un protocole interne à nos switches qui fonctionne de manière similaire, c’est-à-dire en étendant le protocole RoCE de base [RDMA-over-Converged Ethernet] avec des paquets qui sondent le trafic et préviennent les différents ports réseau de retarder ou non leurs transmissions, dans le but d’éviter les congestions », explique Christophe Batiard.
« Le point intéressant est que nos switches communiquent entre eux les règles de répartition de charge qu’ils calculent. L’intérêt est de pouvoir ralentir un GPU momentanément à une extrémité du réseau pour éviter que son trafic surcharge l’autre extrémité, ce qui engendrerait des incohérences dans l’ensemble du calcul. Ce ralentissement ponctuel est préférable au temps qu’il faudrait passer pour reprendre tout un calcul », ajoute-t-il.
Le protocole de Huawei laisse passer le protocole de plus haut niveau GPUdirect de Nvidia qui permet aux GPU du même constructeur de communiquer des données directement entre eux ou avec les baies de disques, sans passer par les goulets d’étranglement des serveurs hôtes. Il a aussi le mérite d’accélérer les communications pour les GPU et cartes réseau d’autres marques, ce qui n’est évidemment pas le cas des équipements réseau de Nvidia.
Cumuler la puissance de calcul de plusieurs datacenters
Les ports 800 Gbit/s seront aussi bientôt mis en œuvre sur les équipements réseau qui servent à interconnecter des datacenters entre eux. Là aussi, les fibres privées supportent d’ordinaire un maximum de 100 Gbit/s, mais les débits sont en général bien plus faibles à cause des données de routage télécom qui se greffent aux données utiles.
« Le scénario est que, demain, personne ne mettra plus de 20 000, voire 30 000 GPU par datacenter. Pour des questions de place, d’énergie, etc. Pour autant, il sera parfois nécessaire d’en utiliser 100 000. Il suffit donc de relier les data centers entre eux avec des liens aussi rapides que ceux présents entre les GPU dans les baies de calcul », expose Christophe Batiard.
« Nous prédisons que l’IA va favoriser la pose de fibres qui relieront directement les data centers deux à deux. »
Christophe BatiardDirecteur adjoint des solutions réseau chez Huawei pour l’Europe
« D’ordinaire, les datacenters sont reliés entre eux par des réseaux télécoms en toile d’araignée où des routeurs orientent les trafics sur différents chemins. Mais ces routeurs sont incapables de router en temps réel un signal de 800 Gbit/s. Leur temps de calcul crée de la latence. Une communication intersites se fait au mieux en 10 Gbit/s. Nous prédisons que l’IA va favoriser la pose de fibres qui relieront directement les data centers deux à deux », continue-t-il en expliquant que cela est déjà le cas en Chine.
Pour éclairer – c’est le terme consacré – ces fibres directes, Huawei a mis au point les équipements OSN, dont le dernier modèle 9800 K12 capable de transmettre un total de 48 Tbit/s. En l’occurrence, il s’agit de cumuler les signaux optiques de cinq flux 800 Gbit/s sur une fibre (chacun a une couleur différente) pour qu’elle transporte 4 Tbit/s et de faire courir ensemble douze fibres optiques.
« L’OSN 9800 K12 est officiellement capable de transmettre des signaux optiques sur 500 km sans nécessiter de répétiteur. Cependant, nous l’avons testé sur 2 000 km avec succès », assure Christophe Batiard. Selon lui, la connectivité aussi haut débit entre les datacenters est sans doute la clé pour que l’Europe s’arme d’une puissance de calcul en IA aussi importante que celle des USA, sans pour autant devoir construire des data centers aussi grands que ceux prévus par Washington dans son projet Stargate.