HPE met lui aussi du prétraitement IA dans ses baies de disques

Comme NetApp, HPE ajoute un GPU dans ses baies Alletra MP X10000 afin qu’elles génèrent des descriptions des documents à mesure qu’ils sont créés. Ces descriptions sont essentielles pour soumettre ses propres informations à une IA.

HPE reprend à son compte l’idée que son concurrent NetApp a eue avec sa machine AFX : mettre de la puissance de calcul dans la baie de stockage pour préparer les données de production à être avalées par une IA.

Il s’agit en l’occurrence de produire une foule de descriptions pour chaque contenu (fichiers textes, images, etc.) via un mini LLM exécuté par un GPU embarqué dans la baie de disques. Ces descriptions, des métadonnées, pourront ensuite servir à ranger les informations dans une base de données vectorielle, laquelle permet à une IA de chercher des informations par signification, plutôt que par mot-clé.

Chez HPE, la solution s’appelle X10000 Data Intelligence. Elle consiste à mettre des GPU Nvidia L40S dans une baie de stockage Alletra MP X10000, c’est-à-dire la version de cette baie qui stocke ses informations en mode objet. Le mode objet est naturellement adapté à l’enregistrement de métadonnées. Accessoirement, l’Alletra MP X10000 partage son stockage objet en mode fichier, de sorte que les collaborateurs puissent s’en servir comme un simple NAS sur lesquels ils sauvegardent leurs documents.

L’Alletra MP X10000 avait justement été lancée il y a un an pour que les entreprises puissent stocker des métadonnées descriptives en plus de leurs données en amont d’un projet d’IA capable de faire du RAG. Cependant, les entreprises devaient jusqu’ici produire ces descriptions à la main.

L’enjeu de préparer les données pour leur donner du sens

À mesure que les entreprises acquièrent une meilleure compréhension et poursuivent leurs propres initiatives en matière d'IA, elles reconnaissent l'importance de la préparation des données dans la production d'applications de qualité.

Selon un rapport d'Omdia, certains des principaux défis liés aux initiatives d'IA sur site concernent l'identification des ensembles de données appropriés, l'aide aux équipes chargées de la préparation des ensembles de données et le transfert des données vers l'infrastructure appropriée.

« Nous savons que la qualité des données joue un rôle crucial dans la réussite des projets d'IA », commente Scott Sinclair, analyste chez Omdia. « Cependant, on oublie souvent l'ampleur des environnements de données modernes et l'étendue de la distribution de ces données. Localiser les bonnes données est déjà un enjeu majeur pour les environnements d'entreprise, et l'IA ne fait qu'accroître la pression exercée sur les services informatiques pour localiser et transférer les bonnes données vers la bonne infrastructure. »

Sans une préparation adéquate, les performances et l'efficacité des systèmes basés sur des GPU peuvent être considérablement compromises.

« L'IA commence par les données, et la plupart des entreprises découvrent que leur goulet d'étranglement en matière d'IA n'est pas la capacité des GPU, mais la préparation des données pour les GPU », estime Fidelma Russo, directrice du cloud hybride et directrice technique chez HPE, lors d'une conférence de presse sur HPE Discover Barcelona.

Selon Mme Russo, une solution intégrée comme l’Alletra MP X10000 Data Intelligence évite aux entreprises d’utiliser de nombreux outils de préparation de données, ce qui se traduit par des pipelines plus rapides et une meilleure utilisation des GPU.

« La capacité du nœud de données MP X10000 à simplifier l'enrichissement des métadonnées et à faciliter la création et le stockage des intégrations réduit la complexité de l'infrastructure IA », estime M. Sinclair. « À mesure que les investissements dans l'IA augmentent, les services informatiques doivent jouer un rôle plus important dans la gestion des données d'IA, et la simplicité de la conception de HPE permet aux équipes informatiques de le faire. »

Pour approfondir sur Stockage objet