Guides Essentiels

Dossier réseau : quelle infrastructure pour l’IA ?

Introduction

Entre les serveurs qui calculent et les baies de disques qui stockent, les réseaux sont la colonne vertébrale des infrastructures à déployer pour exécuter des projets d’IA. Ce guide a vocation à présenter les efforts des fournisseurs pour repousser les limites actuelles de réseaux qui ont surtout été conçus, jusque-là, dans le but de véhiculer de simples applications. 

Sur le plan purement matériel, il s’agit d’accélérer les transferts. Des connexions en 800 Gbit/s ont fait leur apparition en 2025 au sein des datacenters. Mais à une telle vitesse, les fibres optiques deviennent essentielles, même pour des liaisons entre des serveurs situés dans le même rack. Problème, les embouts qui convertissent les signaux électriques des switches en signaux lumineux coûtent une fortune à l’achat et en énergie. Les fabricants commencent donc à revoir complètement la manière de concevoir et d’architecturer les puces photoniques qui assurent cette conversion. 

L’autre enjeu matériel est de parvenir à relier suffisamment de serveurs accélérés pour atteindre une certaine puissance de calcul. Physiquement, il est probable qu’il ne soit pas possible de mettre assez de GPU dans une seule baie rack – pour des raisons de coûts, de densité, voire de performances unitaires. Les fournisseurs réseau se réunissent donc pour mettre au point des réseaux qui maintiennent les communications directes entre GPU au-delà d’une baie, au-delà d’une rangée de baies, voire entre des datacenters différents. 

Mais il va aussi falloir repenser la logique de communication. Nvidia travaille à faire sortir des serveurs la mémoire des GPU afin qu’ils deviennent capables de faire des calculs sur des données se trouvant physiquement dans d’autres serveurs. Pour Cisco, la question de déporter une partie des calculs ailleurs est moins matérielle que logicielle. Au cœur de ce genre de problématiques, les benchmarks MLPerf font office d’autorités pour mesurer quelles architectures en réseau aboutissent à des résultats probants. 

Une dernière problématique liée aux réseaux des IA est, paradoxalement, l’opportunité de ne pas les utiliser. Parce que dans de nombreux cas, à commencer par celui des développeurs, c’est un contresens de payer pour des infrastructures de communication quand il s’agit juste de tester des IA avant de les partager. Ce dossier fait donc aussi le point sur les possibilités d’utiliser une IA en vase clos, depuis une seule machine. 

Ce dossier est la suite du guide que LeMagIT a récemment consacré aux offres des fabricants de serveurs pour l’IA.

1Switches-

L’enjeu de communiquer en 800 Gbit/s

Actualités

Photonique : Huawei concrétise déjà les réseaux en 800 Gbit/s

L’équipementier chinois dévoile les premiers switches capables de communiquer à la vitesse permise par les nouvelles puces de STMicroelectronics. Ces équipements rentabilisent mieux les investissements en GPU pour l’IA. Lire la suite

Actualités

GTC2025 : Nvidia dévoile des switches photoniques

Les prochains équipements réseau du constructeur intégreront directement dans leurs puces ASIC les dispositifs qui envoient des signaux lumineux sur fibre optique. Une prouesse technique qui devrait à minima réduire par 3,5 le coût énergétique des communications. Lire la suite

Actualités

Réseau : Arista et Cisco lancent des switches avec connecteurs 800 Gbit/s

Conçus pour équiper les clusters d’entraînement de l’IA, les nouveaux équipements des deux constructeurs ont chacun une approche particulière : plus de fonctions chez Arista et une compatibilité Nvidia Spectrum-X chez Cisco. Lire la suite

Actualités

STMicroelectronics se voit en champion des réseaux fibres

Le franco-italien fournira aux datacenters une puce PIC100 capable de multiplier par seize la vitesse des communications entre serveurs. Une première mondiale et une aubaine pour le fondeur, dont la clientèle habituelle, l’industrie automobile, est moribonde. Lire la suite

2Grands clusters-

Chercher de la puissance dans d’autres serveurs, mais sans ralentissement

Actualités

Réseau pour grands calculs : UALink 1.0 se dévoile

Les hyperscalers et les entreprises veulent pouvoir router leurs traitements dans les clusters de GPU en passant par autre chose que le système NVLink propriétaire de Nvidia. UALink est la réponse d’un consortium de fournisseurs. Lire la suite

Actualités

ESUN, la nouvelle norme réseau des grands clusters d’IA

L’Ethernet for Scale-Up Networking est un nouveau projet visant à définir des mécanismes pour communiquer en réseau au sein de très grands clusters d’IA, potentiellement étendus sur plusieurs datacenters, en minimisant la latence. Lire la suite

Actualités

Puces réseau : Jericho4 de Broadcom connecte les GPU entre datacenters

La dernière génération de contrôleurs pour équipements d’interconnexion supporte 36 000 communications simultanées entre deux datacenters distants de 95 km, réduisant drastiquement l’électricité consommée par le routage à l’arrivée. Lire la suite

Actualités

Oracle adapte son réseau pour gérer des HPC de plus de 130 000 GPU

Avec Acceleron, Oracle veut interconnecter les salles et les bâtiments bardés de rack GPU dans ses data centers, tout en économisant de l’espace et l’énergie consommée par le réseau, pour ajouter davantage de puces IA. Lire la suite

3Stratégies-

Communiquer d’autres types de données

Actualités

Cisco : « La mise en réseau des IA va relancer le Web3 »

La cellule incubation de l’équipementier planche sur une manière d’aller chercher sur Internet des LLM spécialisés dans des domaines différents, afin de les faire travailler en équipe sur la résolution d’une tâche complexe. Lire la suite

Actualités

Infrastructure IA : Nvidia rachète Enfabrica

Le contrôleur CXL de la startup doit permettre à plusieurs GPU de partager une extension mémoire externe, accélérant l’entraînement des IA et rendant plus élastique l’inférence. Étonnamment, cette extension serait reliée par Ethernet. Lire la suite

Actualités

MLPerf : des tests pour mesurer objectivement les offres d’IA

Développés par l’organisation à but non lucratif MLCommons, ces benchmarks évaluent les performances des infrastructures vendues pour entraîner ou inférer des IA. Lire la suite

4Sans réseau-

L’opportunité de faire de l’IA en vase clos

Actualités

Avec Digits, Nvidia met ses supercalculateurs sur le bureau

Le constructeur présente une machine de bureau contenant une version miniature de l’architecture Grace-Blackwell qui équipera cette année les serveurs d’IA. Elle exécute localement des IA et se présente comme une station pour développeurs. Lire la suite

Conseils IT

Comment LeMagIT expérimente les IA sur machines personnelles

Google Gemma, Meta Llama, Mistral ou encore DeepSeek sont téléchargeables gratuitement pour être utilisés sur une machine personnelle sans payer de services en ligne ni exposer ses données en cloud. Mais avec quels résultats ? LeMagIT a testé ses propres cas d’usage. Lire la suite

Actualités

Stations de travail : HP lance des modèles pour l’IA sur site

Le fabricant met à jour ses petites stations graphiques avec des modèles équipés d’une toute nouvelle puce d’AMD, le Ryzen AI Max, un SoC qui reprend les bonnes idées des Mac pour accélérer l’IA. Le public visé va désormais au-delà des professionnels de l’image. Lire la suite