Dossier réseau : quelle infrastructure pour l’IA ?
Introduction
Entre les serveurs qui calculent et les baies de disques qui stockent, les réseaux sont la colonne vertébrale des infrastructures à déployer pour exécuter des projets d’IA. Ce guide a vocation à présenter les efforts des fournisseurs pour repousser les limites actuelles de réseaux qui ont surtout été conçus, jusque-là, dans le but de véhiculer de simples applications.
Sur le plan purement matériel, il s’agit d’accélérer les transferts. Des connexions en 800 Gbit/s ont fait leur apparition en 2025 au sein des datacenters. Mais à une telle vitesse, les fibres optiques deviennent essentielles, même pour des liaisons entre des serveurs situés dans le même rack. Problème, les embouts qui convertissent les signaux électriques des switches en signaux lumineux coûtent une fortune à l’achat et en énergie. Les fabricants commencent donc à revoir complètement la manière de concevoir et d’architecturer les puces photoniques qui assurent cette conversion.
L’autre enjeu matériel est de parvenir à relier suffisamment de serveurs accélérés pour atteindre une certaine puissance de calcul. Physiquement, il est probable qu’il ne soit pas possible de mettre assez de GPU dans une seule baie rack – pour des raisons de coûts, de densité, voire de performances unitaires. Les fournisseurs réseau se réunissent donc pour mettre au point des réseaux qui maintiennent les communications directes entre GPU au-delà d’une baie, au-delà d’une rangée de baies, voire entre des datacenters différents.
Mais il va aussi falloir repenser la logique de communication. Nvidia travaille à faire sortir des serveurs la mémoire des GPU afin qu’ils deviennent capables de faire des calculs sur des données se trouvant physiquement dans d’autres serveurs. Pour Cisco, la question de déporter une partie des calculs ailleurs est moins matérielle que logicielle. Au cœur de ce genre de problématiques, les benchmarks MLPerf font office d’autorités pour mesurer quelles architectures en réseau aboutissent à des résultats probants.
Une dernière problématique liée aux réseaux des IA est, paradoxalement, l’opportunité de ne pas les utiliser. Parce que dans de nombreux cas, à commencer par celui des développeurs, c’est un contresens de payer pour des infrastructures de communication quand il s’agit juste de tester des IA avant de les partager. Ce dossier fait donc aussi le point sur les possibilités d’utiliser une IA en vase clos, depuis une seule machine.
Ce dossier est la suite du guide que LeMagIT a récemment consacré aux offres des fabricants de serveurs pour l’IA.
1Switches-
L’enjeu de communiquer en 800 Gbit/s
Photonique : Huawei concrétise déjà les réseaux en 800 Gbit/s
L’équipementier chinois dévoile les premiers switches capables de communiquer à la vitesse permise par les nouvelles puces de STMicroelectronics. Ces équipements rentabilisent mieux les investissements en GPU pour l’IA. Lire la suite
GTC2025 : Nvidia dévoile des switches photoniques
Les prochains équipements réseau du constructeur intégreront directement dans leurs puces ASIC les dispositifs qui envoient des signaux lumineux sur fibre optique. Une prouesse technique qui devrait à minima réduire par 3,5 le coût énergétique des communications. Lire la suite
Réseau : Arista et Cisco lancent des switches avec connecteurs 800 Gbit/s
Conçus pour équiper les clusters d’entraînement de l’IA, les nouveaux équipements des deux constructeurs ont chacun une approche particulière : plus de fonctions chez Arista et une compatibilité Nvidia Spectrum-X chez Cisco. Lire la suite
STMicroelectronics se voit en champion des réseaux fibres
Le franco-italien fournira aux datacenters une puce PIC100 capable de multiplier par seize la vitesse des communications entre serveurs. Une première mondiale et une aubaine pour le fondeur, dont la clientèle habituelle, l’industrie automobile, est moribonde. Lire la suite
2Grands clusters-
Chercher de la puissance dans d’autres serveurs, mais sans ralentissement
Réseau pour grands calculs : UALink 1.0 se dévoile
Les hyperscalers et les entreprises veulent pouvoir router leurs traitements dans les clusters de GPU en passant par autre chose que le système NVLink propriétaire de Nvidia. UALink est la réponse d’un consortium de fournisseurs. Lire la suite
ESUN, la nouvelle norme réseau des grands clusters d’IA
L’Ethernet for Scale-Up Networking est un nouveau projet visant à définir des mécanismes pour communiquer en réseau au sein de très grands clusters d’IA, potentiellement étendus sur plusieurs datacenters, en minimisant la latence. Lire la suite
Puces réseau : Jericho4 de Broadcom connecte les GPU entre datacenters
La dernière génération de contrôleurs pour équipements d’interconnexion supporte 36 000 communications simultanées entre deux datacenters distants de 95 km, réduisant drastiquement l’électricité consommée par le routage à l’arrivée. Lire la suite
Oracle adapte son réseau pour gérer des HPC de plus de 130 000 GPU
Avec Acceleron, Oracle veut interconnecter les salles et les bâtiments bardés de rack GPU dans ses data centers, tout en économisant de l’espace et l’énergie consommée par le réseau, pour ajouter davantage de puces IA. Lire la suite
3Stratégies-
Communiquer d’autres types de données
Cisco : « La mise en réseau des IA va relancer le Web3 »
La cellule incubation de l’équipementier planche sur une manière d’aller chercher sur Internet des LLM spécialisés dans des domaines différents, afin de les faire travailler en équipe sur la résolution d’une tâche complexe. Lire la suite
Infrastructure IA : Nvidia rachète Enfabrica
Le contrôleur CXL de la startup doit permettre à plusieurs GPU de partager une extension mémoire externe, accélérant l’entraînement des IA et rendant plus élastique l’inférence. Étonnamment, cette extension serait reliée par Ethernet. Lire la suite
MLPerf : des tests pour mesurer objectivement les offres d’IA
Développés par l’organisation à but non lucratif MLCommons, ces benchmarks évaluent les performances des infrastructures vendues pour entraîner ou inférer des IA. Lire la suite
4Sans réseau-
L’opportunité de faire de l’IA en vase clos
Avec Digits, Nvidia met ses supercalculateurs sur le bureau
Le constructeur présente une machine de bureau contenant une version miniature de l’architecture Grace-Blackwell qui équipera cette année les serveurs d’IA. Elle exécute localement des IA et se présente comme une station pour développeurs. Lire la suite
Comment LeMagIT expérimente les IA sur machines personnelles
Google Gemma, Meta Llama, Mistral ou encore DeepSeek sont téléchargeables gratuitement pour être utilisés sur une machine personnelle sans payer de services en ligne ni exposer ses données en cloud. Mais avec quels résultats ? LeMagIT a testé ses propres cas d’usage. Lire la suite
Stations de travail : HP lance des modèles pour l’IA sur site
Le fabricant met à jour ses petites stations graphiques avec des modèles équipés d’une toute nouvelle puce d’AMD, le Ryzen AI Max, un SoC qui reprend les bonnes idées des Mac pour accélérer l’IA. Le public visé va désormais au-delà des professionnels de l’image. Lire la suite
