Nucléaire : ITER se dote d’un réseau longue distance gigantesque

Autour du projet de la centrale ITER se bâtit l'un des réseaux de données scientifiques les plus avancés d'Europe, afin de prendre en charge des connexions haut débit et résilientes avec les chercheurs en fusion nucléaire du monde entier.

ITER, ce projet international visant à construire dans le sud de la France le plus grand réacteur à fusion nucléaire expérimental au monde, sera mis en service dans les années 30. Dès lors, des milliers de scientifiques issus des pays partenaires devront pouvoir participer aux expériences qui s’y déroulent. Problème, le contrôle à distance des systèmes d’une centrale nucléaire est strictement interdit.

Mais si les scientifiques étrangers ne peuvent pas se connecter aux réseaux de la centrale ni manipuler ses équipements à distance, ils disposent néanmoins de moyens presque aussi performants. Ils peuvent recevoir les données d'ITER en temps quasi réel, exécuter des codes d'analyse localement et transmettre leurs résultats aux opérateurs pour poursuivre une expérience.

Selon Denis Stepanov, ingénieur coordinateur informatique à ITER, l'objectif est de permettre aux chercheurs à distance « d'obtenir rapidement ces données et de les traiter, de produire un résultat algorithmique en quelques minutes ou quelques secondes, et de diriger les opérations par l'intermédiaire des opérateurs sur place ».

Une fibre dorsale dédiée autour du monde

ITER produira des volumes de données extraordinaires, provenant de diagnostics rapides, de systèmes de réseaux électriques, de cryogénie, d'instruments à vide et de centaines de capteurs à grande vitesse. Des impulsions pouvant durer 400 secondes peuvent générer des dizaines de téraoctets de données par tir, et l’ambition à long terme est de produire régulièrement des impulsions qui atteignent une heure. Un jeu de données simulées utilisé pour tester le réseau a récemment atteint 176 To.

Afin de fournir ces données à des chercheurs situés à des milliers de kilomètres, en moins d'une minute, de manière fiable et sur plusieurs continents, le projet ITER s’est accompagné de la construction d’une fibre dorsale mondiale, qui s'étend du sud de la France à la Californie et au nord du Japon.

La stratégie de données d'ITER s'articule autour de deux sites hautement connectés : le Centre de données scientifiques et de calcul (SDCC) situé sur le site d'ITER à Cadarache, et un centre d'archivage et de distribution secondaire à Marseille, à environ 50 km de là. Marseille est l'un des hubs de connectivité les plus importants d'Europe, avec des liaisons denses vers les opérateurs internationaux et le réseau de recherche paneuropéen Géant.

Selon Peter Kroul, responsable du centre informatique d'ITER, le site de Marseille assurera à terme à la fois la protection et la distribution des données. C'est également là qu'ITER se connectera aux réseaux de recherche internationaux, notamment Renater (France), Géant (Europe), ESnet (États-Unis) et Sinet (Japon).

Deux liaisons optiques redondantes de 400 Gbit/s chacune ont été installées entre Cadarache et Marseille en 2022. Le réseau japonais Sinet a mis à jour la plupart de ses capacités nationales et transpacifiques à 100-400 Gbit/s, et le réseau européen Géant offre déjà une bande passante de 100 Gbit/s à travers le continent. Grâce à ces modernisations, ITER a récemment pu, pour la première fois, tester une capacité de 100 Gbit/s entre la France et le Japon.

ITER.sync, un framework pour se connecter à tous les partenaires

Une autre contribution technique importante est ITER.sync, un framework de réplication de données Open source et haute performance, développé au SDCC. Il parallélise les flux de données, ajuste automatiquement les paramètres réseau et maintient un débit élevé même sur des chemins présentant une latence de 200 à 300 millisecondes.

Peter Kroul explique qu'ITER.sync a été conçu parce qu'ITER ne peut imposer un fournisseur ou une pile technologique spécifique aux organisations partenaires. « Nous avions besoin d'un outil capable de se connecter à tous les systèmes utilisés par nos partenaires, sans sacrifier les performances sur les liaisons à très haute latence », précise-t-il.

Il raconte que certaines parties d'ITER.sync ont vu le jour de manière inattendue. En réglant les systèmes internes, les ingénieurs ont découvert « presque par hasard » un ensemble de techniques capables de saturer une liaison longue distance. Ces méthodes ont finalement joué un rôle central dans la conception d'ITER.sync.

Denis Stepanov souligne cependant que le plus difficile n'est pas de poser la fibre optique ou de développer des protocoles, mais d'aligner toutes les organisations impliquées. Les liaisons transcontinentales d'ITER reposent sur des VPN de couche 2, qui nécessitent des changements de configuration coordonnés chez tous les opérateurs le long du trajet. « De nombreux acteurs sont impliqués. Il faut une configuration technique et une confiance mutuelle. La partie administrative prend autant de temps que la construction de la partie technique », explique-t-il.

Les pays choisiront en fin de compte leur mode de participation. Beaucoup prévoient d'analyser les données à distance depuis le centre de calcul d'ITER. Mais certains, dont le Japon et les États-Unis, souhaitent disposer de leurs propres copies locales. 

Le Centre d'expérimentation à distance (REC) du Japon, situé à Rokkasho, se trouve à proximité de l'un des supercalculateurs du pays. Son objectif est de recevoir les données de l'ITER, d'exécuter localement des algorithmes nécessitant une puissance de calcul importante et de distribuer des sous-ensembles aux groupes de recherche nationaux sans avoir à extraire les données à plusieurs reprises depuis la France.

Les États-Unis ont des ambitions similaires. Le DIII-D, exploité par General Atomics, transfère régulièrement des données à travers le pays pour une analyse en temps quasi réel et présente les résultats en quelques minutes. L'architecture d'ITER est conçue pour prendre en charge de tels cas d'utilisation à l'échelle mondiale.

Deux tests réussis cet été

Au cours de l'été 2025, ITER, le REC japonais et le DIII-D ont mené deux campagnes indépendantes de transfert de données à grande échelle. Les deux campagnes s'appuyaient sur des données ITER simulées représentant des opérations à puissance initiale et à pleine puissance.

Les essais franco-japonais ont permis de passer d'une démonstration à 10 Gbit/s en 2016 à deux connexions simultanées à 100 Gbit/s chacune, soit une multiplication par 20. Les ingénieurs ont évalué le routage entre les chemins, le débit continu et l'adaptabilité en cas de défaillance des câbles sous-marins.

La liaison principale transitait auparavant par la Sibérie, mais des contraintes géopolitiques ont incité le Japon à rediriger le trafic vers le Pacifique ou vers l'Asie du Sud-Est. « La première variante de la liaison qui passait par la Sibérie offrait les meilleures performances », explique Denis Stepanov. « Ils ont dû l'annuler et emprunter un itinéraire plus long, via Singapour ou les États-Unis, ce qui a augmenté la latence d'environ 50 %. »

Pour renforcer la résilience, Géant a mis en place un chemin secondaire Méditerranée-Mer Rouge-Océan Indien. La campagne japonaise a testé à la fois le comportement en cas de basculement et la possibilité de répartir le trafic simultanément sur les deux itinéraires.

La campagne ITER avec DIII-D en Californie s'est concentrée sur l'intégration à haut débit entre différentes architectures de stockage. Au cours de dix essais, les équipes ont atteint un débit proche de la limite théorique de 100 Gbit/s sur la liaison transatlantique. Les systèmes de stockage aux deux extrémités – IBM Spectrum Scale à ITER et BeeGFS aux États-Unis – se sont révélés interopérables de manière efficace.

Selon M. Kroul, les campagnes de transfert de données de 2025 démontrent que l'architecture d'ITER est prête. Avec la technologie actuelle, le réseau mondial peut déjà supporter le débit requis pour les flux de travail d'analyse en ligne et hors ligne pendant la première décennie de fonctionnement d'ITER. Que les partenaires demandent des copies complètes des données ou s'appuient sur une analyse centralisée à distance, l'infrastructure est en place.

Les prochaines étapes consistent à affiner la stratégie de distribution des données, à coordonner les politiques de sauvegarde et à continuer d'étendre les accords internationaux de réseau qui rendent possibles les VPN de couche 2 à longue distance. « Dans l'ensemble, les performances du matériel, des logiciels et du réseau sont satisfaisantes », constate Denis Stepanov. « Les liaisons sont suffisantes pour la mise en service d'ITER et pour les cinq à dix premières années d'expérimentation. »

Pour approfondir sur WAN, SDWAN, SASE