
Stockage : Dell accélère sa baie objet pour l’IA
La baie ObjectScale bénéficiera d’ici à la fin de l’année d’une extension S3-over-RDMA dans son système d’exploitation. Cela lui permettra d’utiliser des cartes réseau à base de DPU pour communiquer à pleine vitesse avec des GPU.
Après HPE et Scality, Dell adapte lui aussi sa solution de stockage en mode objet à l’IA. En insérant des cartes réseau Nvidia dans la baie de disques et en ajoutant une couche S3-over-RDMA à son système d’exploitation, la prochaine version du produit ObjectScale saura communiquer à toute vitesse ses contenus, de sorte que les GPU des serveurs de calcul ne gaspilleront pas leur puissance à attendre les données.
« S3-over-RDMA arrivera d’ici à la fin de cette année. Cela va servir à éliminer toute la latence qui s’impose d’ordinaire à un serveur quand il doit formuler des requêtes pour accéder à des informations sur un stockage objet », argumente un expert en stockage de Dell, sur le stand dédié à la solution, lors de l’événement annuel Dell Tech World qui se tient cette semaine à Las Vegas.
« Aujourd’hui, les usages du mode objet ne sont plus seulement la consultation de documents. Les informations sont aussi lues par des IA génératives et elles doivent être lues extrêmement rapidement », plaide-t-il.
« Techniquement, la grande nouveauté est que nous utilisons dans la baie des cartes réseau basées sur les DPU BlueField-3 de Nvidia. D’une part, elles mettent en œuvre le protocole GPUdirect qui consiste à charger directement les données dans la mémoire des GPU distants. On élimine ainsi toutes les étapes de décodage réseau faites par le processeur du serveur. »
« D’autre part, ces cartes encodent les données au protocole Spectrum-X de Nvidia. Celui-ci évite les congestions sur les liens réseau et permet des transferts en rafale », ajoute le spécialiste.
L’un dans l’autre, la nouvelle version d’ObjectScale pourrait transférer ses données 3,3 fois plus rapidement. Les délais entre une demande de lecture de la part d’un serveur de calcul et l’envoi par la baie ObjectScale de la donnée demandée seraient quant à eux divisés par 5.
Dell ne précise cependant pas si ces améliorations sont le seul fait du pilote S3-over-RDMA et du DPU BlueField-3, ou s’il comptabilise aussi l’utilisation de cartes réseau avec un meilleur débit. D’ordinaire, une baie ObjectScale est, dans le meilleur des cas, reliée au réseau via une connectique en 100 Gbit/s. Les cartes réseau qui embarquent un DPU BlueField-3 offrent quant à elle une connectique de 200 ou 400 Gbit/s.
Le stockage objet, un mode d’accès bien plus pratique pour l’IA
L’accès rapide aux données de calcul est une problématique qui était historiquement résolue par l’utilisation de baies de stockage en mode fichiers, c’est-à-dire des NAS via les protocoles NFS ou SMB.
Et pour cause, le mode fichier présente très peu de couches à décoder ; il faut juste lire un index qui indique sur quels blocs de quels disques se trouvent les données souhaitées. Cela implique donc intrinsèquement très peu de latence. C’est aussi le mode utilisé depuis toujours par les supercalculateurs, dont l’architecture est similaire aux actuels clusters de calcul de l’IA.
Pour autant, le stockage objet, via le protocole S3, présente des avantages fonctionnels indéniables dans les cas d’utilisation de l’IA. Principalement son système de métadonnées qui indexe une multitude de caractéristiques pour chaque enregistrement et qui tombe à point nommé pour filtrer très efficacement les informations sensibles, intéressantes ou inutiles avant de les livrer à l’IA.
Ce système de métadonnées avait été initialement inventé en partant du principe que le stockage objet servirait à entreposer des archives qu’on consulte tellement peu souvent qu’il faudrait un moteur de recherche pour les retrouver. D’où la lenteur des solutions qui utilisent le protocole S3. Lenteur que chaque fournisseur tâche désormais d’éliminer.
« ObjectScale n’est ni plus ni moins que la version moderne d’ECS, le système de stockage objet d’EMC [que Dell a racheté en 2016, NDR]. C’est un système de pointe dans son genre. Il est doté d’une console parmi les plus complètes du marché pour gérer les contenus et les droits d’accès, avec une extrême précision », dit l’expert de Dell.
« De plus, il ne souffre pas des limites de tailles rencontrées sur les NAS. Vous pouvez stocker des milliers de pétaoctets en ajoutant simplement des baies de disques supplémentaires sur le réseau. Ce sont des caractéristiques tout à fait pertinentes pour l’IA », ajoute-t-il.
Pour des clusters de calcul Nvidia... dans un premier temps
Évidemment, toutes ces nouveautés apportées à ObjectScale ne fonctionneront qu’avec des serveurs de calcul équipés de GPU Nvidia. « Il faut bien commencer quelque part ! », rétorque notre interlocuteur, avec un sourire complice.
Comme pour les nouveaux PC Dell Pro Max AI, le mot d’ordre est donné aux équipes responsables des stands de ne surtout rien dire à propos des produits que le constructeur n’a pas encore officiellement annoncés. Mais LeMagIT croit comprendre qu’une version avec des cartes réseau basées sur le DPU Tomahawk de Broadcom permettra dans un second temps d’utiliser pareillement une baie ObjectScale avec des GPU d’AMD ou d’Intel.
Il faut dire que le même matériel – les baies ObjectScale sont en fait des serveurs PowerEdge R7725xd qui exécutent sur un système de stockage objet au démarrage – était présenté deux stands plus loin avec ces fameuses cartes réseau à base de DPU Tomahawk.
Ces cartes mettent en œuvre un nouveau protocole de communication, similaire à Spectrum-X, mais non propriétaire, lui : l’Ultra-Ethernet. Spectrum-X et Ultra-Ethernet sont tous deux des évolutions de RoCE (RDMA-over-Converged Ethernet) qui apportent une gestion proactive du trafic sur le réseau. RoCE est quant à lui une extension du réseau Ethernet qui permet de communiquer sans perte de paquets. Et donc sans la latence pour les renvoyer. D’ordinaire un système de stockage objet utilise le protocole Ethernet de base.
« Toutes ces cartes réseau offrent pour l’instant des connectiques en 200 ou 400 Gbit/s. Mais les modèles avec connectique 800 Gbit/s seront disponibles peu après la commercialisation du nouvel ObjectScale. Il s’agira donc encore d’une accélération significative pour notre stockage objet », lance l’expert de Dell.
Selon des discussions surprises par LeMagIT dans les allées du salon Dell Tech World, Dell nourrirait des ambitions pour ObjectScale qui iraient même au-delà de l’IA. Il serait question de lancer l’année prochaine une extension S3-Tables qui permettrait aussi à cette solution de se substituer à du stockage en mode bloc, soit le mode de stockage le plus rapide pour des bases de données SQL.
Jusqu’à 2,2 Po de SSD deux fois plus rapides dans 2U
Le PowerEdge R7725xd qui constituera la partie matérielle de la nouvelle version d’ObjectScale est également une nouveauté du salon Dell Tech World 2025. Par rapport au modèle précédent, sa principale nouveauté est d’intégrer deux processeurs AMD Epyc de cinquième génération (la dernière) dont le principal avantage est d’offrir en tout 160 canaux PCIe 5.0.
« Le xd dans le nom de la machine signifie extradense. Vous avez suffisamment de canaux PCIe 5.0 dans cette machine au format 2U pour mettre en façade 24 SSD NVMe à quatre canaux – soit deux fois plus de vitesse que les SSD habituels qui n’ont que deux canaux – et six cartes réseau 800 Gbit/s de 8 canaux PCIe à l’arrière », lance Guillaume Field, le responsable marketing de Dell qui anime le stand des serveurs de stockage.
« De plus, cette machine arrive équipée des tout derniers SSD QLC de 122 To. Une fois comptabilisée la redondance du RAID, vous obtenez une capacité brute (avant déduplication/compression) de 2,2 Po. C’est tout simplement du jamais vu pour une machine haute de seulement 2U », se réjouit-il.
Et de renchérir, quand LeMagIT lui fait remarquer que Huawei a récemment annoncé une baie de stockage OceanStor Dorado de format similaire qui, elle, a 25 SSD de 122 To en façade : « nous avons déjà annoncé un format U.3 qui va nous permettre d’insérer dans chaque emplacement en façade deux SSD l’un derrière l’autre, pour un maximum de 40 SSD dans la baie ».
Selon un calcul rapide fait par LeMagIT, cela devrait porter la capacité brute à 3,6 Po. En revanche, ces 40 SSD NVMe seraient vraisemblablement des modèles à deux canaux PCIe, sinon la machine n’aurait plus assez de canaux pour ses cartes réseau.