Dossier stockage : quelles solutions pour l’IA ?
Introduction
Quelles solutions d’infrastructure choisir pour exécuter des projets d’IA dans son datacenter ? LeMagIT avait déjà consacré un dossier aux solutions serveur qui fournissent la bonne puissance de calcul, puis un autre aux équipements réseau qui supportent les débits et les protocoles nécessaires. Voici à présent celui consacré au troisième pan de ces architectures : le stockage.
Ce dossier se veut complémentaire du quarantième numéro de notre magazine Storage qui présentait déjà un premier lot de produits ainsi que des bonnes pratiques dans le domaine. Il est également utile de consulter notre dossier de couverture de l’événement Insight 2025, qui regroupe toutes les dernières annonces de NetApp concernant l’IA.
Il y a trois enjeux concernant le stockage de données dans le cadre d’un projet d’IA : il faut réunir les bonnes données en amont, les partager au bon format et les communiquer à la bonne vitesse.
Ne livrer qu’une sélection de données nettoyées, à l’analyse d’une IA, n’est pas qu’une question de RGPD. C’est tout autant éviter de noyer son IA avec des informations obsolètes. Aucune entreprise ne souhaite qu’un chatbot donne à ses clients ou ses collaborateurs des indications contre-productives. C’est pourtant bien ce qu’il se passera si on fait reposer la base de connaissance de cette IA sur la totalité des documents de travail, parmi lesquels il subsiste toujours de vieilles versions remplies de données périmées.
La solution est d’indexer les contenus. Des solutions de stockage s’efforcent de le faire automatiquement. Mais cela passe souvent par un mode de stockage de type objet, qui n’est pas celui dans lequel travaillent les applications des collaborateurs. Il faut donc que la solution de stockage soit capable à la fois de proposer les contenus en mode fichier, pour les collaborateurs, et en mode objet, pour que des règles filtrent en temps réel les contenus à ne pas communiquer à une IA. Et il faut aussi que cette solution de stockage convertisse les contenus à partager au format vectoriel, le seul que peut lire directement un LLM.
Dans le monde du datacenter, le précurseur en la matière a été NetApp, qui a fini par tout packager dans une solution clés en main : la baie AFX. En cloud, AWS a une longueur d’avance avec une nouvelle déclinaison de son service de stockage objet qui est désormais compatible avec les vecteurs : S3 Vectors.
Les solutions que nous évoquons ci-dessous ont chacune développé une approche propriétaire pour parvenir à un résultat similaire, qui inclut dans la plupart des cas une nouvelle caractéristique pour des baies de stockage : la capacité de réaliser elles-mêmes des calculs. Parce que mettre des données dans une base vectorielle ne correspond pas à un simple changement de format : il faut attribuer à chaque information des coordonnées selon sa signification. Et pour les déterminer, il faut déjà exécuter un LLM capable de comprendre ce que signifient les informations.
On en arrive ainsi à la problématique de la communication entre les unités de calcul de l’IA et les baies de stockage. C’est une question d’architecture. Et dans ce domaine, chaque fournisseur veut imposer la sienne, sans forcément promettre que des données préparées par l’un pour être aspirées le plus vite possible par des GPU Nvidia soient transposables telles quelles sur la baie de disques d’un concurrent.
Il n’est pas encore dit que, dans les projets d’IA, il sera facile de changer de fournisseur de stockage en cours de route. Même Nvidia vient d’annoncer sa manière propriétaire d’organiser les données sur disques, pour qu’elles soient lues de manière plus optimale par les LLM qu’exécutent ses GPU.
Un autre moyen d’accélérer la lecture des données est d’optimiser le fonctionnement matériel. Les stratégies sont encore plus hétéroclites. Hammerspace propose d’étendre virtuellement une baie de stockage externe aux SSD internes d’un serveur de calcul Nvidia. Phison propose l’inverse : étendre virtuellement la capacité mémoire des GPU Nvidia aux SSD externes. Graid propose que ce soient les GPU Nvidia qui gèrent eux-mêmes le stockage au plus bas niveau. MinIO part du principe que, puisque le stockage objet est le plus adapté, alors c’est essentiellement lui qu’il faut accélérer.
Rien n’est certain. Et, tant qu’à faire, peut-être qu’il est même opportun de faire l’impasse sur les solutions qui s’efforcent de mieux travailler avec les GPU Nvidia. Nous complétons ainsi ce dossier avec une dernière partie consacrée aux plateformes alternatives à celles de Nvidia. Elles se veulent plus standard, ouvertes à toutes les marques de GPU, de réseau ou de stockage. Et si elles tiennent leurs promesses, il est probable qu’elles rendent bien moins compliqué le choix d’une baie de disques.
1Stratégie-
L’enjeu de mieux préparer les données
IA et stockage : les conseils de Nvidia
Dans cette interview, le patron des systèmes DGX de Nvidia partage ses conseils sur la manière de mettre en route des projets d’IA, de la curation des données à la problématique du stockage, en passant par les étapes pour choisir un modèle. Lire la suite
Étude : le stockage de données est l’élément bloquant des infrastructures d’IA
Alors que l’IA semble essentielle dans la stratégie des DSI, une étude du cabinet ESG indique que des lacunes persistantes en matière d’infrastructures de données empêchent les projets de grandir. Lire la suite
Stockage : HPE apporte le mode objet à ses baies Alletra, pour l’IA
Le fabricant équipe sa plus rapide des baies de disques d’un système de stockage objet de sa conception, censé faciliter le travail de tri des données sensibles que les entreprises font en amont d’un projet d’IA. Lire la suite
HPE met lui aussi du prétraitement IA dans ses baies de disques
Comme NetApp, HPE ajoute un GPU dans ses baies Alletra MP X10000, afin qu’elles génèrent des descriptions des documents à mesure qu’ils sont créés. Ces descriptions sont essentielles pour soumettre ses propres informations à une IA. Lire la suite
Stockage pour l’IA : Ctera donne une dimension contextuelle à sa plateforme
La solution de partage de fichiers entre plusieurs sites se pare d’une extension MCP qui doit permettre à des agents d’IA de mieux décrire ses contenus, pour que d’autres IA puissent s’en servir de manière plus utile dans leurs réflexions. Lire la suite
2Architecture-
L’enjeu de communiquer de manière optimale avec les LLM
Stockage : les solutions certifiées par Nvidia lors de la GTC 2025
DDN, Dell, HPE, Hitachi Vantara, NetApp, Pure Storage, Vast Data et Weka ont désormais chacun des solutions officiellement compatibles avec les clusters de calcul de nouvelle génération de Nvidia. Lire la suite
Stockage : Nscale mettra du Vast Data dans ses datacenters Nvidia
L’hébergeur européen de services cloud pour l’entraînement des IA s’aligne sur un choix technique qu’avait fait avant lui CoreWeave, son équivalent aux USA. L’intérêt de la technologie Vast est d’être à mi-chemin entre NFS et pNFS. Lire la suite
Stockage et IA : l’infrastructure Hitachi iQ se veut la plus complète
Ajoutant des serveurs avec GPU, du réseau et même du stockage parallélisé Hammerspace, la solution n’a plus grand-chose à voir avec la baie de disques VSP One sur laquelle elle repose. Celle-ci apporte néanmoins à l’ensemble des fonctions utiles à l’IA. Lire la suite
Partage de fichiers : Arcitecta intègre le format vectoriel pour alimenter les IA
La solution australienne savait déjà partager un même contenu sous différents formats. Désormais, sa base d’indexation intègre des formats directement lisibles par des IA. Toutefois, il faut passer par un service tiers pour convertir les données en vecteurs. Lire la suite
Stockage : Vdura lance une version 11 adaptée à l’IA
La nouvelle évolution du système de stockage de Vdura bénéficie d’une architecture entièrement repensée, qui fait qu’elle est plus facile à installer pour les entreprises qui se lancent dans l’IA sans n’avoir jamais fait de supercalcul. Lire la suite
Stockage pour l’IA : Huawei dévoile sa stratégie à Madrid
Le constructeur chinois met dès à présent sur le marché européen quatre nouvelles baies de stockage accélérées. Dans quelques semaines, il les accompagnera de logiciels pour préparer les données à l’IA. Lire la suite
Stockage : Lenovo rachète Infinidat
Le fabricant de serveurs se dote ainsi d’une gamme de baies de disques hautes capacités, performantes et peu chères, particulièrement adaptées aux traitements d’IA. Lire la suite
Infrastructure IA : l’ICMS de Nvidia chamboule les baies de disques
Dans la prochaine génération de ses accélérateurs, Nvidia a mis au point un système censé servir à recharger plus vite les contextes des précédentes sessions d’IA générative. Mais celui-ci cogne contre les optimisations déjà imaginées par les acteurs du stockage. Lire la suite
3Vitesse-
L’enjeu d’éviter que les GPU passent leur temps à attendre les données
Stockage : Hammerspace accélère l’IA avec les SSD des serveurs de calcul
Les serveurs qui contiennent les GPU disposent d’emplacement pour des SSD qui étaient jusque-là inutilisés. L’éditeur a trouvé un moyen de les exploiter pour que les accès se fassent à la vitesse du bus PCIe 5.0 plutôt qu’à celle du réseau Ethernet. Lire la suite
IA : Phison utilise la capacité des SSD pour étendre la RAM des GPU
Avec ses logiciels aiDaptive+ et ses SSD PASCARI, Phison permet à de simples machines personnelles d’accéder à des fonctions de pointe jusqu’ici réservées aux datacenters, notamment le fine-tuning de grands modèles. Lire la suite
Stockage : Graid décline ses cartes accélératrices en version logicielle
La startup américano-taïwanaise, qui convertit des cartes Nvidia en contrôleur RAID surpuissants, lance des versions uniquement logicielles pour ceux qui disposent déjà de GPU dans leurs serveurs ou stations de travail. Lire la suite
Pure Storage dévoile la plus rapide de ses baies de stockage
La nouvelle baie FlashArray//ST, et ses 10 millions d’IOPS, se destine à une niche d’utilisateurs de bases de données qui ont besoin de performances extrêmes. Les FlashArray//XL et FlashBlade//S voient quant à elles leurs performances doubler. Lire la suite
Stockage objet : MinIO optimise ses performances sur serveurs ARM
En intégrant dans son code les accélérations disponibles dans les processeurs ARM, le système Open source cherche à se positionner comme une solution de stockage pour les infrastructures d’IA. Lire la suite
4Alternatives-
L’enjeu de chercher des architectures plus standard que celles de Nvidia
Accélérateurs : une fondation se mobilise contre Nvidia
Intel, ARM, Qualcom, Fujitsu se réunissent dans la fondation UXL, affiliée à la fondation Linux, pour militer contre les outils de développement de type CUDA qui produisent du code seulement pour les GPUS Nvidia. Lire la suite
Open Source Summit : Intel détaille son kit OPEA pour renverser Nvidia
Le kit de développement Open source est conçu pour mimer les possibilités de Nvidia AI Enterprise, afin que les entreprises puissent créer des applications d’IA générative sans devoir acheter de GPU Nvidia. Lire la suite
Untether AI, Brium et Enosemi : les rachats d’AMD pour rattraper Nvidia
Si Enosemi ne doit servir qu’à perfectionner les réseaux d’entraînement de LLM en datacenters, les deux autres startups permettront à AMD de progresser significativement dans l’optimisation des IA pour les entreprises. Lire la suite
