Baies de stockage : le turc NGX modernise son offre pour percer en Europe

Désormais, les baies de NGX supportent nativement tous les modes de stockage. Elles supportent jusqu’à plus de 2000 disques durs ou SSD via des tiroirs externes et proposent aussi différentes configurations en cluster.

Le fabricant de baies de stockages turc NGX refait parler de lui. Après avoir réussi une petite percée en Europe de l’Ouest, notamment en Espagne via les revendeurs de Western Digital, il compte transformer l’essai en renouvelant son offre.

Elle comprend à présent deux approches matérielles - une baie 100% SSD, une autre avec un mélange de SSD et disques durs. Individuellement, elles supportent tous les modes de stockage : fichier, bloc, objet. Elles peuvent aussi s’agencer en cluster, mais le routage entre les nœuds nécessite alors de choisir un mode de stockage en particulier pour le cluster. NGX s’est aussi résolu à proposer son système de stockage seul, pour les revendeurs qui souhaiteraient l’installer sur des serveurs de leur choix.

« Il nous paraît important de proposer des baies compatibles avec tous les modes de stockage, car ils existent généralement tous dans un datacenter, mais sur des équipements différents, avec des systèmes d’exploitation différents. Notre système global réduit la complexité, vous apporte de la flexibilité dans le temps et, in fine, réduit vos coûts d’exploitation », défend Beyhan Çalışkan, le PDG de NGX (en photo en haut de cet article), lors d’un événement IT Press Tour consacré aux acteurs du stockage qui arrivent sur le marché européen.

Précisons que si le système propose tous les modes de stockage, chaque contrôleur des baies NGX ne fonctionne que soit en mode bloc, soit en mode fichier et objet. La granularité est de deux contrôleurs par baie NGX et autant de contrôleurs que l’on veut par cluster.  

« Accessoirement, maintenir au catalogue des configurations avec disques durs est d’autant plus intéressant dans le contexte actuel de la pénurie de circuits NAND [qui composent les SSD, N.D.R.], laquelle menace de perdurer », ajoute-t-il.

Quant à la version dans laquelle le système est vendu seul, elle aurait surtout été motivée par la trop grande diversité d’exigences matérielles chez les grands comptes. Manifestement, les 16 configurations de baies que NGX propose à son catalogue, déclinables avec une multitude d’options pour la connectique, ne suffisaient pas à entrer dans toutes les cases.

Pour l’heure, l’essentiel des ventes de NGX est réalisé au Moyen-Orient. Pour soutenir sa percée en Europe, NGX indique qu’il compte bientôt y installer une usine d’assemblage. Divers sites sont à l’étude, dont un en Pologne.

Plus de 2000 disques gérés par les modèles haut de gamme

Les baies qui mélangent disques durs et SSD appartiennent à la famille NGX-H, tandis que celles qui n’ont que des SSD font partie de la famille NGX-AFA. Chaque famille se décline en deux boîtiers : 2U pour les séries 1000 et 4U pour les séries 2000. Et chaque série se décline elle-même en plusieurs versions avec plus ou moins de cœurs de processeurs et de RAM pour gérer plus ou moins de disques.

Ces disques prennent essentiellement place dans des tiroirs externes. LeMagIT croit comprendre qu’il s’agit le plus souvent, en Europe, de tiroirs JBOD (disques durs) ou JBOF (SSD) de marque Western Digital.

À titre d’exemple, une NGX-H1800 (2U, hybride, donc) intègre 3 To de RAM et peut donc gérer 1024 disques, ou une capacité brute de 20 Po. Une NGX-AFA1640 (2U, 100% Flash), qui intègre également 3 To de RAM, ne peut en revanche gérer qu’un maximum de 640 SSD, ou une capacité brute de 6,4 Po.

Cette différence dans le nombre d’unités tient au fait que la bande passante inférieure des disques durs permet d’en connecter davantage sur le bus du contrôleur. Toutefois, les baies de la série NGX-H utilisent des SSD en guise de cache pour minimiser la latence.

Autre exemple, la baie haut de gamme NGX-H2800 (4U, hybride) dispose de 8 To de RAM pour piloter 2160 disques, ou une capacité brute de 38 Po. Tandis que la baie haut de gamme NGX-AFA2800, avec toujours 8 To de RAM, ne supporte que 2048 SSD, ou une capacité brute maximale de 31 Po.   

Précisons toutefois que les disques durs occupent deux fois plus d’espace physique dans un datacenter que des SSD. Typiquement, 24 disques durs 3,5 pouces tiennent horizontalement dans un tiroir JBOD de 4U, alors que 24 SSD 2,5 pouces tiennent verticalement dans un tiroir JBOF de 2U. Il existe néanmoins des tiroirs de 4U allongés qui peuvent contenir une centaine de disques durs insérés verticalement.

Les baies contrôleur de NGX contiennent elles-mêmes des disques ; lors de notre rencontre, le constructeur a rapidement évoqué le nombre de 24, sans plus de détails.

Des services de haut niveau pour tous les modes de stockage

Chaque baie peut s’accompagner de cartes FC jusqu’à 64 Gbit/s et Ethernet jusqu’à 100 Gbit/s, pour être reliée aux serveurs ou aux tiroirs de disques. Elles supportent la connexion de 8192 serveurs, auxquels elles présentent 65536 unités logiques (soit des volumes de fichiers partagés en NFS/SMB, soit des unités logiques LUN partagées en mode bloc).

À noter que l’Ethernet sert aussi bien pour les modes fichier et objet (protocole S3), que pour le mode bloc. Dans ce dernier cas, seul le protocole iSCSI est pour l’heure supporté. Le constructeur évoque néanmoins l’arrivée prochaine du NVMe/TCP, voire sur NVMe/RoCE.

Les deux contrôleurs qui équipent chaque baie fonctionnent en mode actif-actif, soit pour se partager les accès vers un mode de stockage commun, soit pour présenter chacun un mode de stockage différent.

Quel que soit le mode de stockage utilisé, le système de NGX compresse et déduplique les contenus, les réplique éventuellement vers deux ou trois autres baies, y compris si elles sont sur des sites de secours distants, et les sauvegardes régulièrement sous forme de snapshots incrémentaux. Ceux-ci peuvent être immuables. Il autorise le Thin provisionning et gère des tiers de stockage différents selon la nature des unités (disques durs SAS, SSD SAS et SSD NVMe).

« Il s’agit exactement du même système pour tous les modes de stockage, mais nous avons développé des optimisations pour chacun d’eux. La console d’administration de nos baies en tient compte et fait apparaître des fonctions dédiées selon le mode utilisé », dit Beyhan Çalışkan.

Du NVMe/TCP pour les clusters en mode bloc

Concernant les fonctionnements en cluster, NGX les a baptisés NGX-ExaScale (mode bloc), NGX-HyperIO (mode objet) et NGX-ScaleOut-NAS (mode fichier).

Un cluster NGX-ExaScale repose sur un ou plusieurs lots de trois baies. Cette règle de trois baies vient du fait que le système de NGX regroupe ses SSD en des RAID de six unités, à raison de deux unités au maximum installées dans la même machine. La capacité utilisable sur un tel RAID équivaut à la capacité de quatre SSD, le reste étant utilisé par les copies redondantes des blocs.

L’intérêt du RAID est de paralléliser les lectures des mêmes blocs et de toujours pouvoir récupérer ses données même si l’on perd des SSD (en l’occurrence deux au maximum par groupe RAID), ou si l’on perd une baie sur les trois.  

En Ethernet, les machines partagent leurs SSD en NVMe/TCP. Il s’agit aussi du protocole qui leur sert à communiquer entre elles. Le NVMe/RoCE serait possible avec des cartes réseau spéciales, qui peuvent grimper à 200, voire 400 Gbit/s.

Pour étendre le cluster, il suffit d’ajouter des lots de trois baies AFA. NGX évoque la possibilité d’assembler 10 lots, soit 30 baies. Le constructeur précise la capacité maximale de 80 Po, ce qui correspond à des baies de 24 SSD QLC de 122 To chacun.

« Les futures versions géreront bien plus de baies. Mais, de toute façon, au-delà de 30, la problématique sera moins dans la gestion de la capacité de stockage que dans la mise en réseau d’un tel cluster avec le reste des serveurs », fait remarquer Beyhan Çalışkan.

MinIO n’est plus mentionné pour le stockage objet

Un cluster NGX-HyperIO peut contenir jusqu’à 255 nœuds, lesquels sont soit des baies contrôleur de NGX, soit des tiroirs de disques. En frontal, un équipement réseau répartit les requêtes au protocole S3 qui viennent des serveurs entre les baies de contrôle. Chacune d’elles connaît l’emplacement de chaque morceau de donnée, elle les récupère via le réseau (ou directement depuis ses disques) et les renvoie au serveur.

Lors des écritures, la baie qui répond distribue des fragments de données sur plusieurs nœuds et, ce, de manière redondante (principe de l’Erasure coding). Autrefois, NGX utilisait le stockage objet de MinIO. Il n’en fait plus mention, suggérant qu’il s’agit à présent d’un développement interne.

Les baies NGX de la famille H (hybrides) sont les plus adaptées pour ce type de cluster. Dans ce cas, les métadonnées qui permettent de retrouver chaque contenu sont stockées sur des SSD pour maintenir un certain niveau de performances.

Du pNFS pour les clusters en mode fichier

Enfin, un cluster NGX-ScaleOut-NAS peut fonctionner soit comme un cluster HyperIO, avec des baies de contrôle qui répondent chacune à leur tour et vont récupérer ailleurs les fichiers, soit en pNFS. Dans ce protocole, les baies qui reçoivent les requêtes des serveurs se contentent de leur dire où se trouve le fichier qu’ils demandent pour qu’ils aillent le récupérer eux-mêmes.

Le protocole pNFS présente l’intérêt de fluidifier le trafic, puisque l’embouteillage des requêtes de fichiers n’est pas davantage ralenti par la lecture ou l’écriture des fichiers eux-mêmes.

NGX recommande que les baies qui contiennent les index des fichiers soient des NGX-AFA, tandis que celles qui stockent les données elles-mêmes peuvent être des NGX-H, selon le niveau de performances souhaité. « À la limite, les baies qui contiennent les données peuvent même être des NAS d’une autre marque, du moment qu’ils partagent leurs contenus en NFS v3, lequel peut servir d’esclave dans un cluster pNFS », indique Beyhan Çalışkan.

Pour approfondir sur SAN et NAS