George Kurian (NetApp) : « en IA, la priorité est l’optimisation des données plutôt que leur vitesse

Dans cette interview, le PDG de NetApp s’exprime sur l’apparent retard des fabricants de baies de disques à tirer parti du phénomène IA. Ce ne serait qu’une question de temps long, comme dans le cas des migrations depuis VMware.

Le trio de tête des fournisseurs de solutions de stockage de données pour entreprises – Dell, Pure Storage, NetApp – multiplie les efforts technologiques pour s’aligner sur les besoins modernes de l’intelligence artificielle. Mais leurs ventes progressent bien moins que celles des serveurs désormais équipés de puissants GPU, ou celles des switches réseau avec des ports Ethernet à très haut débit. Et ils ne s’en offusquent pas.

Pour comprendre ce paradoxe, la presse vient d’avoir l’occasion d’interviewer George Kurian, le PDG de NetApp, en marge du salon NetApp Insight que le constructeur a organisé cette semaine à Las Vegas.

Dans les lignes qui suivent, George Kurian explique quel est selon lui le véritable enjeu économique du stockage – les données plutôt que les disques qui les contiennent. Il évoque aussi les évolutions probables de certains de ses produits.

LeMagIT : les ventes de serveurs et d’équipements réseau explosent grâce à l’arrivée de modèles adaptés à l’IA. Mais pas les ventes de baies de disques. Quel est le problème ?

George Kurian : Il s’agit juste de deux chronologies différentes. Les ventes de serveurs et de réseau reflètent les besoins d’entraînements de l’IA. La phase suivante sera de soumettre des données métier à ces IA entraînées. C’est à ce moment que vous verrez les ventes de stockage décoller, d’autant plus qu’il faudra stocker toutes les nouvelles données créées par l’IA générative.

Vous améliorez vos baies de disques avec des logiciels qui simplifient les projets d’IA. Mais n’avez-vous pas l’impression que tous les regards se tournent plutôt vers les baies de disques qui sont matériellement accélérées pour supporter les performances de l’IA ?

Ce sont deux besoins différents. Les baies accélérées que vous mentionnez ne sont utilisées que pour satisfaire le besoin de checkpointing. C’est quand vous entraînez un LLM avec un système de fichiers parallélisé sur du stockage très basique et qu’il faut accéder très rapidement à une zone tampon pour vérifier qu’il n’y a pas d’erreurs. Nous vendons ça. Ce sont nos baies de disques en mode bloc E-Series, utilisées avec le système de fichiers parallélise BGFS.

Ce sont des besoins en stockage peu importants : 4 ou 8 bits, fois le nombre de paramètres de votre LLM, fois le nombre de checkpoints par entraînement, fois le nombre d’entraînements que vous souhaitez conserver. Pour être honnête, cela ne représente pas pour nous de grosses ventes.

Notre priorité, c’est plutôt le stockage de grandes quantités de données. Les grandes quantités de données sont sur les cas d’usage de l’inférence, où il faut plutôt optimiser la logique que la vitesse.

Mais concrètement, vos solutions sont-elles taillées pour être utilisées, par exemple, par des fournisseurs de services d’IA en cloud ?

Certains « néoclouds » [fournisseurs de cloud qui ne proposent que des services d’IA, N.D.R] sont déjà nos clients. Et nous sommes sollicités par certains autres pour que leurs utilisateurs réussissent à utiliser leurs données avec l’IA. Nous avons une grande expérience en ce qui concerne les fonctions pour mieux exploiter les données, notamment via tous les services que nous avons mis en place avec les hyperscalers.

Vous avez au catalogue la gamme de baies en mode objet StorageGrid. Allez-vous aussi les vendre pour l’IA ? Et de quelle manière ?

Nous avons récemment lancé la version 12.0 du système StorageGrid qui apporte des fonctionnalités utiles dans le développement des applications d’IA. Par exemple, une fonction appelée Bucket Branching, qui vous permet de répliquer des données dans une zone réservée aux développeurs sans pour autant consommer beaucoup de capacité de stockage. Mais attendez-vous à voir arriver sur StorageGrid la couche AIDE de préparation des données pour l’IA que nous avons implémenté dans la baie AFX.

À ce propos, le module de calcul que vous avez mis dans la baie AFX est-il condamné à n’exécuter que votre couche logicielle AIDE ? Ou avez-vous le projet de lui faire autre chose ?

Nous avons formulé l’année dernière la promesse que nous amènerions l’IA à vos données pour vous éviter d’avoir à copier vos données vers l’IA. Le nœud de calcul DX50 de la baie AFX concrétise cette promesse et c’est tout ce dont nous pouvons nous féliciter pour l’instant. Je ne veux pas spéculer sur les formes dérivées que pourrait prendre ce module de calcul.

Cependant, je sais qu’on nous demandera certainement à un moment de transférer la logique du DX50 sur d’autres matériels, par exemple parce que des utilisateurs voudront l’exécuter sur l’architecture qu’ils ont choisie. Si c’est le cas, nous le ferons.

Sur un tout autre sujet, vous venez d’adapter votre outil Shift Toolkit pour aider les clients de VMware à migrer vers OpenShift de Red Hat. Pourquoi cette solution en particulier ?

Ce sont d’abord les demandes de nos clients qui guident nos choix. À ce stade, il est encore trop tôt pour savoir par quoi les entreprises vont majoritairement remplacer VMware. Aujourd’hui, nous savons éliminer la problématique de migrer notre stockage pour les entreprises qui veulent utiliser sur site Azure Local (Hyper-V) ou OpenShift, et pour les entreprises qui partent dans le cloud où nos services de stockage existent. Mais attendez-vous à voir les possibilités s’enrichir au fur et à mesure que nous discuterons avec nos clients de leurs besoins de migration.

Pour approfondir sur SAN et NAS