
Stockage : DDN récupère 300 M$ pour développer son offre IA
Le fabricant historique de baies de stockage de données pour supercalculateurs est censé se servir de cet argent pour décliner son savoir-faire dans des produits plus adaptés à l’IA. Mais il en vend déjà. Y compris à Elon Musk.
DDN, un historique des baies de stockage pour supercalculateurs, vient de recevoir un investissement de 300 millions de dollars de la part du fonds américain Blackstone. L’objectif est de permettre à DDN de transformer son leadership dans les supercalculateurs en leadership dans les solutions de stockage pour l’IA.
Si dans les deux cas il s’agit de produire des baies de stockage excessivement rapides pour alimenter des GPU très performants, les approches sont différentes. Un supercalculateur lit un petit nombre de formules mathématiques et produit d’énormes données de simulation. En IA, on fait l’inverse : il faut lire très vite un énorme jeu de données pour produire un modèle synthétique plus petit (entraînement) ou générer à l’écran la réponse à un prompt (inférence avec RAG).
Une offre qui va déjà du supercalcul à l’IA
Pour le marché des supercalculateurs, DDN vend des baies EXAscaler qui fonctionnent sous Lustre, un système de fichiers parallélisé, Open source, qui est né au début des années 2000. Une baie EXAscaler est un cluster de plusieurs nœuds de disques. Parmi eux, un nœud ne sert qu’à indexer le contenu des autres, un peu comme la zone de répertoire sur un système de fichiers classique. Les serveurs de calcul interrogent ce serveur de métadonnée pour savoir sur quel nœud lire/écrire les blocs d’un fichier, puis ils communiquent directement avec le bon nœud le temps du transfert des blocs de ce fichier.
Pour que le système fonctionne, les serveurs de calcul doivent embarquer un client Lustre et avoir une connexion réseau directe avec les nœuds de stockage. Il s’agit généralement d’un réseau InfiniBand, sans perte de paquet, avec la possibilité pour la carte contrôleur de copier directement les données dans la RAM ou sur les SSD NVMe de la machine hôte.
DDN a décliné ce savoir-faire dans des baies de stockage AI400X2 conçues, elles, pour les traitements en IA. Il s’agit des mêmes nœuds EXAscaler 2U, mais disposant de cartes contrôleurs Ethernet SpectrumX de Nvidia. Dotées des DPU BlueField du même Nvidia, ces cartes apportent sur un réseau Ethernet, plus adapté à des serveurs d’entreprise, les mêmes bénéfices que l’Infiniband. Leur protocole RoCE (RDMA over Converged Ethernet) fonctionne aussi sans perte de paquet, avec une écriture directe des données dans la mémoire des cartes GPU de Nvidia (protocole GPUdirect).
DDN a même déjà des solutions pour l’inférence
Les AI400X2 sont surtout conçues pour communiquer le plus vite possible avec les GPU, dans le cas de l’entraînement d’un modèle d’IA. Mais elles sont très chères pour stocker l’énorme quantité de données qu’une entreprise veut soumettre au quotidien à un modèle déjà entraîné. Pour ce second cas d’usage, DDN propose depuis 2023 les baies Infinia. Celles-ci fonctionnent en mode objet, avec un protocole S3 de base, qui permet d’ajouter des nœuds de disques à chaud.
DDN a découpé chaque fonction de stockage S3 en un container : le serveur de métadonnées, le serveur de stockage, etc. Si bien que DDN peut reproduire avec ses Infinia un fonctionnement similaire à Lustre, pour peu que certains containers fonctionnels de S3 soient installés sur les serveurs de calcul. Les baies Infinia ont le mérite d’être également équipées de cartes SpectrumX pour maximiser la vitesse des transferts.
Enfin, DDN se targue de savoir mieux que quiconque comment fonctionne le stockage intensif. Quand les GPU écrivent en parallèle des données qu’ils relisent ensuite pour continuer leurs calculs, plusieurs problèmes d’incohérences peuvent subvenir. Ces problèmes sont habituellement réglés par des Checkpoints réguliers, une opération potentiellement très gourmande en temps de calcul alors qu’elle ne génère aucune donnée utile. DDN revendique de savoir éviter ces délais en ménageant des flux de transferts, qu’il orchestre avec une savante utilisation des caches.
Un investissement qui profite d’abord à Blackstone
Non seulement DDN dispose donc déjà d’une offre pour l’IA, mais il la vend aussi déjà à de gros clients. Parmi eux, xAI, la société d’Elon Musk qui a déployé un superordinateur d’IA, Colossus, bardé de 100 000 GPU H100. De fait, l’utilité de ce nouvel investissement de 300 millions de dollars n’est pas très claire.
Il est probable que la motivation vienne surtout du fonds d’investissement Blackstone qui cherche à placer ses pions – il entre au conseil d’administration de DDN – dans plusieurs entreprises stratégiques en IA. L’année dernière, le fonds avait également offert un soutien financier à CoreWeave, un hébergeur d’infrastructure à la demande (IaaS) qui ne sert qu’aux traitements de IA.
En tout état de cause, DDN entretient à présent sur son site le suspense d’une annonce phénoménale pour l’IA, le 20 février prochain. Si elle est en accord avec la stratégie que Blackstone semble vouloir pousser, il devrait s’agir d’un produit de stockage « IA » pour le tout venant des entreprises.