Stockage : Vast Data s’explique sur l’étonnante diversité de ses cas d’usage

Le fournisseur vend sa solution de NAS parallélisé pour le supercalcul, pour l’IA ou encore la sauvegarde. Des domaines qui n’ont techniquement rien à voir. L’équipe française explique pourquoi et comment elle mène cette stratégie.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : STORAGE: Storage 36 - Une déferlante de projets pour accélérer le stockage

Et de trois. Après avoir adressé le monde de la recherche avec ses NAS parallélisés très rapides, puis celui des banques via l’intégration de son système de stockage dans les équipements HPE, Vast Data se présente désormais, aussi, comme une solution de stockage de sauvegardes pour les hébergeurs de cloud privé.

À cette fin, le fabricant enchaîne les partenariats avec les éditeurs de sauvegarde. Après Veeam il y a quelques mois, Vast Data annonce cette semaine une nouvelle alliance avec Commvault. Cette alliance concrétise plusieurs compatibilités techniques, notamment le verrou en écriture de Vast Data sur les sauvegardes réalisées par Commvault, ou encore la restauration par Commvault de données sur le même cluster Vast Data qui a servi aux sauvegardes.

Afin de mieux cerner la stratégie de Vast Data, LeMagIT est allé à la rencontre de Bertrand Ounanian et Vincent Gibert, respectivement directeur technique et directeur commercial de la filiale Europe du Sud que Vast Data a récemment ouverte en France. Interview.

LeMagIT : La recherche, les banques, les sauvegardes… cibler en même temps des marchés si différents est assez inhabituel pour une solution de stockage. La norme est plutôt de se présenter comme le spécialiste d’un domaine particulier. Comment expliquez-vous cela ?

Vincent Gibert : Notre NAS 100 % Flash a des niveaux de performances si élevés qu’il peut répondre à une fourchette de besoins bien plus large que d’ordinaire. Nos concurrents sont sur la promotion de solutions hybrides [qui mélangent disques durs et SSD, N.D.R.]. Ils doivent faire de l’orfèvrerie pour fournir le dosage de capacité et de vitesse qui correspond exactement aux nécessités d’un certain type de projet.

À l’inverse, avec une marque comme Vast Data, une entreprise a spontanément la certitude d’avoir suffisamment de puissance dans le datacenter pour répondre pendant cinq ou sept ans à tous les types de cas d’usage critiques, c’est-à-dire ceux pour lesquels il ne faut jamais baisser en performances alors que la quantité des données croît continuellement.

LeMagIT : Votre première cible a été le monde du calcul et de l’IA. Le HPC est un secteur pourtant déjà bien pourvu en solutions NAS de pointe. Pourquoi des centres vous ont-ils choisi ?

Bertrand Ounanian : Pour les fabricants de baies de stockage de type entreprise, comme nous, il y a l’opportunité d’amener au monde du supercalcul des fonctions qui y sont encore inédites, comme les snapshots, la réplication, la déduplication, les quotas, etc. C’est important, car de plus en plus d’entreprises privées songent à se doter à leur tour d’une infrastructure HPC, laquelle devient accessible avec des solutions sur étagère de type DGX SuperPOD de Nvidia.  

Le problème est que les supercalculateurs n’utilisent pas des NAS standards. Ils utilisent des NAS parallélisés : un point de montage sur un serveur de calcul ne correspond pas à un seul contrôleur NAS du réseau, mais à plusieurs. C’est la spécificité des systèmes Lustre et GPFS. D’autres avant nous ont tenté de proposer leurs NAS distribués, dans lesquels chaque contrôleur NFS ou SMB répartit ses données sur un ensemble de tiroirs de disques qui lui est propre [Bertrand Ounanian fait a priori ici référence à Isilon et Qumulo, N.D.R.]. Mais ce n’est pas pareil. Ces tentatives ont tourné court, car les serveurs de calcul doivent tous écrire sur le même système de fichiers [le global namespace, N.D.R.], sans être étranglés par un contrôleur unique. 

Notre solution consiste à survitaminer NFS pour qu’il concurrence Lustre et GPFS. Notre NFS est parallélisé (grâce à un pilote installé sur les serveurs de calcul qui adresse plusieurs contrôleurs depuis un seul point de montage) et distribué (tous les contrôleurs peuvent écrire sur tous les tiroirs de disques présents dans le cluster).

LeMagIT : Êtes-vous en train de dire que les entreprises ne choisissent pas Lustre et GPFS pour le stockage de leurs clusters d’IA uniquement parce que ces systèmes n’ont pas de possibilités de snapshots ou de quotas ?

Bertrand Ounanian : Non, c’est plus subtil. Il y a une différence fondamentale entre le stockage d’un supercalculateur et celui d’un cluster d’IA. Dans le premier, les serveurs lisent un petit jeu de données et génèrent chacun, en parallèle, énormément de données en sortie. D’où le besoin de parallélisation.

Dans l’IA, c’est l’inverse : le cluster de Machine Learning déclenche un très grand nombre de lectures parallèles pour, au final, n’écrire que très peu de données de synthèse. Dans ce cas, il faut que chaque nœud du cluster lise très rapidement à un instant T la donnée qui se trouve sur un seul tiroir de disques. Et pour y parvenir, il faut que les disques en question soient des SSDs, accessibles via un réseau NVMe-over-Fabric adapté aux SSDs. Les NAS parallélisés via Lustre et GPFS n’utilisent généralement que des disques durs, dans des tiroirs reliés aux contrôleurs via un réseau Infiniband.  

Mais notre solution apporte encore d’autres avantages par rapport à un cluster de stockage classique pour HPC. Nous redondons les données avec un système d’Erasure coding transverse aux tiroirs de disques qui est bien plus efficace – en matière de sécurité, en matière de reconstruction après une panne – que le RAID cantonné à chaque tiroir de disques durs.

Un autre point est que nous n’utilisons pas de cache sur les contrôleurs, mais sur les tiroirs de SSDs. Il s’agit en l’occurrence de mémoires Optane – dont Intel a encore beaucoup de stock – ou l’équivalent chez Kioxia. En faisant cela, nous évitons d’avoir à gérer la cohérence des caches entre les contrôleurs, qui supposerait que les contrôleurs discutent entre eux et génèrent beaucoup de latence.
Il faut préciser que les contrôleurs sont déployés sous la forme de containers sur nos serveurs qui pilotent nos tiroirs de disques. Il devient ainsi possible de mettre plusieurs containers, avec plusieurs adresses IP virtuelles sélectionnées à tour de rôle dans le DNS par un système de type Round-Robin, sur un serveur qui dispose de plusieurs cœurs et de plusieurs connexions 100 Gbit/s.

Enfin, précisons que notre solution est très dense par rapport à un cluster de stockage pour HPC. Nos tiroirs de disques Ceres contiennent 22 SSDs QLC et 12 mémoires Optane ou Kioxia dans un boîtier de seulement 1U. Ces modules sont pilotés uniquement par des DPUs BlueField de Nvidia, sans processeur supplémentaire, pour un minimum de consommation d’énergie dans le tiroir. Chacun de nos tiroirs dispose de 2 ou 4 ports 100 Gbit/s vers les serveurs qui exécutent les contrôleurs en containers.

Tous ces avantages font que notre solution est le seul NAS actuellement certifié par Nvidia pour fonctionner avec un cluster de calcul DGX SuperPOD.

LeMagIT : Vous décrivez une solution qui propose un NAS NFS parallélisé qui permet d’accéder plus rapidement à des fichiers. Mais s’agissant de l’IA, les moteurs de Machine Learning actuels ne préfèrent-ils pas plutôt accéder à du stockage objet en S3 ?

Bertrand Ounanian : Sur nos baies, les données sont aussi bien accessibles en mode fichiers qu’en mode objet S3. Initialement, l’IA utilisait NFS qui n’impactait nullement les performances. S3 est devenu le protocole privilégié depuis que les moteurs sont compatibles avec du stockage en cloud. Il n’y a pas de différence de performances entre un accès S3 et un accès NFS ou SMB sur nos solutions. Mieux : notre solution vous permet de générer des fichiers via un supercalculateur en NFS puis de les relire via vos applications d’IA en S3.

La nouvelle version 4.6 de notre système VastOS va même au-delà en ajoutant un système d’index interrogeable via des moteurs de recherche, avec des requêtes SQL ou Spark. Ces index sont des tables qui regroupent toutes les métadonnées de S3 – en l’occurrence des étiquettes applicatives – ainsi que tous les éléments du système de fichiers et d’autres métadonnées que nous enregistrons. Par exemple le nom de l’appareil scientifique de mesure qui a servi à écrire telles données à telle date.

Il faut comprendre qu’à partir du moment où les entreprises vont stocker des centaines de Po, voire des exaoctets de fichiers, il devient compliqué de retrouver la bonne information en naviguant dans des répertoires ou en cherchant parmi toutes celles d’une certaine application. Ce système d’index va permettre aux entreprises d’affiner leurs requêtes.

LeMagIT : Pouvez-vous nous expliquer en quoi consiste votre partenariat avec HPE ?

Vincent Gibert : HPE intègre notre système VastOS dans ses baies de stockage SAN Alletra pour leur apporter des fonctions de NAS. Il se trouve que les baies Alletra ont une architecture contrôleurs/tiroirs de SSDs qui est matériellement similaire à la nôtre. Cette similitude a incité HPE à se rapprocher de nous pour implémenter notre technologie NAS plutôt que redévelopper la leur. Dans ce cas, les baies sont vendues uniquement sous la marque HPE, par les commerciaux de HPE, avec des contrôleurs et des tiroirs de disques fabriqués par HPE.

Pour nous, c’est un avantage. Car HPE a accès à des grands comptes – les banques – que nous n’avons pas encore la force commerciale de démarcher, du moins en France. Ce faisant, ils promeuvent notre technologie dans les grandes entreprises qui mettent en place des clusters de stockage pour l’IA.

LeMagIT : Et la sauvegarde ? N’est-il pas antinomique d’utiliser un NAS parallélisé pour simplement stocker des données dormantes comme les sauvegardes ?

Vincent Gibert : L’avantage de notre solution est qu’elle permet de restaurer très, très rapidement des backups. Cela résonne avec une nouvelle norme, baptisée DORA (Digital Operational Resilience Act) qui oblige les banques à avoir des fenêtres de restauration très courtes. C’est un problème en cas d’attaque par ransomware, par exemple, car la baie de stockage qui a été chiffrée est souvent mise sous scellés par la compagnie d’assurance le temps qu’elle mène une enquête technique.

Dans ce contexte, vous avez des solutions de sauvegardes, chez Veeam, chez Commvault, qui vous permettent de remettre rapidement en production des machines virtuelles en montant leurs volumes directement depuis la baie qui stocke les sauvegardes, avant même de les restaurer ailleurs. Le problème de cette technique sur un NAS standard est que, au-delà de la première machine virtuelle, les accès seront de plus en plus lents.

En nous associant avec ces acteurs de la sauvegarde, en vendant notre NAS comme support de sauvegarde, nous leur permettons de restaurer très rapidement ces volumes directement sur nos serveurs frontaux, avec toute la performance dont nous avons parlé jusqu’ici.

En l’occurrence, la demande vient surtout des fournisseurs de services managés, le plus souvent des hébergeurs de clouds privés. Ils voient en nous le moyen de respecter les niveaux de service sur lesquels ils s’engagent auprès de leurs clients.

À ce sujet, nous commercialisons comme d’autres nos baies à la souscription, via notre programme contractuel Gemini. À la différence de nos concurrents, nos tarifs ne sont pas calculés selon la capacité installée, mais selon la capacité utilisée. C’est un paramètre très important pour les fournisseurs de service. Car cela signifie qu’ils se font livrer une baie avec beaucoup de capacité, ne paient que pour le volume qu’ils refacturent à leurs clients et ont de la capacité immédiatement disponible quand ils signent avec de nouveaux clients.

Pour approfondir sur SAN et NAS

Close