Supercalcul : Nvidia lance le réseau Infiniband accéléré Quantum-2

La nouvelle gamme comprend une carte contrôleur à 400 Gbit/s, un switch 1U à 51 Tbit/s et un châssis à 1600 Tbit/s, tous accélérés par la puce DPU BlueField-3.

Dans le domaine des supercalculateurs, Nvidia vient de lancer sa nouvelle gamme Quantum-2 d’équipements réseau Infiniband. Offrant une connectivité réseau de 400 Gbit/s entre les nœuds d’un cluster, la gamme Quantum-2 comprend deux switches, les QM9700 et CS9500, ainsi qu’une carte contrôleur, la ConnectX-7, tous basés sur la puce DPU BlueField-3 mise au point par le constructeur.

La particularité de cette nouvelle gamme est qu’elle soulage les processeurs centraux d’une partie des traitements fonctionnels, qu’il s’agisse d’encoder les données en paquets réseau au niveau du BlueField-3, ou encore de faire transiter les données directement entre le GPU et le réseau.

« C'est un design unique. Sachant qu’un GPU peut venir à bout de calculs courants, comme le chiffrement, on peut parier que le BlueField-3 soulagera bien plus le processeur que ses concurrents. »
Alan PriestleyAnalyste, Gartner

« Parmi les fonctions prises en charge par le BlueField-3, vous trouverez typiquement le chiffrement des données à la volée. Mettre ces fonctions-là dans le réseau permet aux processeurs centraux d’avoir plus de réserve de puissance pour les algorithmes, ce qui contribue à exécuter les calculs plus rapidement », argumente Gilad Shainer, le responsable des produits chez Nvidia.

Alan Priestley, analyste chez Gartner, note surtout que le DPU BlueField-3 intègre des circuits empruntés aux GPU de Nvidia : « c’est un design unique, que l’on ne retrouve pas dans les puces réseau que proposent Cisco ou Intel. Sachant qu’un GPU peut venir à bout de calculs courants, comme le chiffrement, on peut parier que le BlueField-3 soulagera bien plus le processeur que ses concurrents », commente-t-il.

Jusqu’à 1600 Tbit/s de bande passante

La carte réseau ConnectX-7 offre un port optique OSFP en 400 Gbit/s, commutable en 200 Gbit/s pour une compatibilité ascendante. Déjà compatible PCIe 5, elle reste utilisable sur PCie 4. Comme les GPU, elle peut communiquer sur 16 canaux PCIe. Elle dispose de pilotes pour les systèmes Linux (Red Hat, Ubuntu), Windows et l’hyperviseur ESXi de VMware. Nvidia assure qu’elle est pleinement prise en charge par les clusters de containers Kubernetes. Les cartes redondantes peuvent être installées sur le même système. À l’inverse, une même carte, installée dans un fond de panier PCIe, peut-être pilotée par huit nœuds serveur en même temps.

Le switch QM9700, de taille 1U, comprend 64 ports OSFP en 400 Gbit/s pour une bande passante totale de 51,2 Tbit/s. En plus du DPU, ce switch intègre un processeur Intel i3, 8 Go de RAM et un SSD de 160 Go sur lequel fonctionne le système MLNX-OS.

Le CS9500, enfin, est un châssis de switches. Haut de 29U, il existe en trois configurations : avec 512, 1024 ou 2048 ports OSFP en 400 Gbit/s. Elles offrent respectivement les bandes passantes de 400, 800 et 1600 Tbit/s. 

Selon Gilad Shainer, chaque produit s’interface avec des équipements Infiniband d’autres marques. Pour autant, n’utiliser que des produits Quantum-2 garantirait des performances meilleures. Il ne précise pas pourquoi.

Les équipements Quantum-2 seront revendus en marque blanche par Atos, Dell, HPE, IBM, Inspur et Lenovo.

Pour approfondir sur HPC

Close