AFX : la nouvelle baie de NetApp prépare elle-même les données pour l’IA

Censée abolir toute une série de procédures nécessaires en amont de la livraison de données à une IA, la nouvelle baie de stockage de NetApp a la particularité d’intégrer des modules de calcul avec GPU.

NetApp lance une baie de stockage AFX qui intègre de la puissance de calcul pour préparer les données en amont d’une IA. S’il n’est pas encore question de lancer directement des applications d’IA depuis une baie de stockage, la capacité présentée ici de convertir au fil de l’eau les documents (fichiers, bases de données, objets...) au format vectoriel doit soulager les entreprises de toute une collection de procédures qui pénalisent aussi bien leurs projets d’IA générative que l’entraînement de leurs LLM personnalisés.

« Les entreprises provisionnent déjà beaucoup de serveurs et d’équipements réseau très rapides pour l’IA. Mais les vrais projets n’ont toujours pas démarré, car la problématique est de livrer à l’IA des données correctes. Résoudre ce point au niveau même du stockage, avec les règles d’accès d’origine, au fil de l’eau, est une grande idée. C’est un feu vert pour l’innovation », s’enthousiasme Christophe Bertrand, analyste pour le cabinet The Cube.

Le format vectoriel est obligatoire pour indexer les nouveaux documents, soit afin de les donner à une IA générative préentraînée de sorte qu’elle base sa réflexion sur leurs contenus (principe du RAG), soit pour entraîner une nouvelle IA avec leurs informations.

Sachant qu’une entreprise crée tous les jours de nouveaux documents, la problématique de les indexer au fur et à mesure est similaire à la problématique des sauvegardes quotidiennes. Dans les deux cas, il faut bloquer la production pendant la copie (et la transformation) des données. L’enjeu de mettre de la puissance de calcul directement dans la baie qui stocke ces données est donc d’invisibiliser ce temps de conversion.

Accessoirement, ne pas avoir besoin d’un serveur externe pour effectuer ce travail de conversion évite aussi la difficulté de retranscrire sur lui toutes les règles de gouvernance, principalement le fait que seuls certains utilisateurs ont le droit d’exploiter certaines données dans certaines circonstances. En la matière, NetApp vante depuis ces dernières années la richesse de son système de stockage OnTap en ce qui concerne les fonctions de contrôle des accès.

Des données clés en main pour l’IA

La machine a été présentée lors de la conférence annuelle NetApp Insight qui se tient cette semaine à Las Vegas. Sandeep Singh, le directeur général des produits de stockage chez NetApp (en photo en haut de cet article) la décrit comme une solution clés en main :

« Vous branchez la baie AFX et elle commence automatiquement à convertir les documents que vous stockez dessus. Et comme elle fonctionne sous notre système OnTap, tout est sécurisé, tous les droits d’accès entre différents types d’utilisateurs sont pris en compte. Mieux, notre système étant connectable à tous les hyberscalers, ces données converties et protégées sont directement exploitables par n’importe quel service d’IA en cloud, avec les mêmes comptes utilisateurs, ou sur site si vous possédez des serveurs de calcul. Vous n’avez même pas à déplacer vos données ailleurs », lance-t-il.

Il est probable que NetApp annonce bientôt des partenariats avec des fournisseurs de serveurs équipés, eux, pour exécuter des applications d’IA génératives à partir des données prêtes à l’emploi stockées sur la baie AFX. Le constructeur évoque des configurations basées sur des GPU RTX Pro 6000 de Nvidia, mais refuse de citer une marque en particulier.

En ce qui concerne l’utilisation des données aux fins d’entraînement d’une nouvelle IA, NetApp indique que la baie AFX serait déjà certifiée pour fonctionner avec des clusters DGX SuperPOD de Nvidia.

Trois briques différentes

Techniquement, L’AFX se compose de trois briques de base : des contrôleurs qui partagent les données avec le monde extérieur, des tiroirs de SSD qui contiennent les données et des modules de calcul qui convertissent les données au fil de l’eau. A priori, les serveurs externes qui exécuteront ou entraîneront une IA ne communiqueront qu’avec les contrôleurs de stockage. Cependant, NetApp donne la possibilité d’utiliser le module de calcul depuis le réseau pour exécuter dessus des agents d’IA, via une couche logicielle appelée AIDE (AI Data Engine).

Le modèle de contrôleur est en fait celui du NAS AFF A1K dévoilé l’année dernière. Au format 2U, il partage sur le réseau les fichiers selon les protocoles NFS, SMB, S3, NFS/RDMA (en l’occurrence du via un réseau Ethernet RoCE) et, c’est nouveau, en pNFS.

Pour rappel, dans les autres cas, le contrôleur sert de passerelle – et de goulet d’étranglement – entre les serveurs du réseau et les disques qui contiennent les données. En pNFS, le contrôleur a pour seule fonction de dire aux serveurs du réseau sur quel tiroir de disques se trouvent les données demandées et les serveurs établissent une connexion directe vers les tiroirs de disques, en mode bloc. Non seulement ce mode bloc est bien plus rapide, mais on évite également le goulet d’étranglement.

Selon la version, ce contrôleur propose des ports Ethernet en 400, 100, 25 ou 10 Gbit/s.

Il est possible d’en déployer 128 exemplaires dans un cluster AFX, pour paralléliser d’autant plus les accès.

La seconde brique est le tiroir NX224 de 24 SSD 2,5 pouces, également au format 4U. Les SSD ayant une capacité maximale individuelle de 60 To, on en déduit qu’il s’agit de modèles QLC. Il est possible de déployer 52 de ces tiroirs dans un cluster, soit une capacité brute de 74,88 Po.

NetApp évoque une capacité utile pouvant grimper à 1000 Po (1 Eo), sans préciser s’il parvient à ce chiffre extraordinaire via la compression, ou s’il s’agit, plus vraisemblablement de la capacité totale que peut présenter le contrôleur en agglomérant dans un seul nom de domaine les contenus d’autres baies.

La dernière brique est le module de calcul DX50. De format 1U, il intègre un processeur AMD Epyc de quatrième génération doté de 64 cœurs, 1 To de RAM, une carte accélératrice Nvidia L4 et dispose de 4 ports Ethernet 100 Gbit/s. Il est possible d’en déployer dix exemplaires dans un cluster.

Rappelons que la carte GPU L4 de Nvidia était initialement vendue pour accélérer l’affichage des bureaux virtuels dans les serveurs. Un tel GPU graphique est extrêmement efficace pour générer des données vectorielles. En revanche, il est peu performant pour exécuter des moteurs d’inférence qui interrogent des LLM.

Enfin, NetApp ne propose pas de switch réseau pour relier les briques dans un cluster de grande taille, mais le constructeur a annoncé un partenariat avec Cisco et ses équipements Nexus lors de l’événement NetApp Insight 2025.

Directement reliée au cloud Azure

Sur le plan logiciel, le partage en mode objet de la baie, via des API, permet à des services d’Azure, le cloud public de Microsoft, d’exploiter directement ses contenus ; l’entreprise cliente n’a même plus besoin de les transférer manuellement vers le cloud. Ces services sont Microsoft Fabric (récupération et transformation des flux de données), les IA d’OpenAI, le service d’analytique Azure Synapse, le moteur de recherche avec génération de synthèse Azure AI Search, ou encore Azure Machine Learning (entraînement de LLM).

La répartition des fichiers entre les services Azure et les baies AFX, éventuellement situées dans différents datacenters de l’entreprise cliente, est assurée par le module FlexCache à souscrire en même temps qu’un service de stockage Azure NetApp Files. Il s’agit plutôt ici de livrer des données au format fichier aux applications qui n’utilisent pas le mode objet. Dans ce cas, tous les fichiers sont visibles sur tous les sites à la fois, mais ne sont transférés que lorsqu’une application les ouvre.

À noter que s’il s’agit juste de transférer les sauvegardes, NetApp recommande toujours de plutôt utiliser son service SnapMirror.

Pour approfondir sur SAN et NAS