Stockage Flash : les constructeurs en compétition

Avec le stockage Objet, le stockage Flash est autre grande nouveauté qui bouleverse l’univers du stockage. Le point sur les approches respectives des constructeurs et sur les évolutions à attendre.

Avec le stockage Objet, le stockage Flash est autre grande nouveauté qui bouleverse l’univers du stockage. Après le tour du marché du stockage objet, il était donc naturel de vous proposer un point sur les offres de baies de stockage 100% Flash, de décrire leurs principales caractéristiques, et de mettre en lumière leurs forces mais aussi leurs faiblesses éventuelles.

L’occasion également de faire le point sur les approches respectives des différents constructeurs et sur les évolutions à attendre au cours des prochains mois.

NB : Ce panorama fait l’impasse sur les versions 100% Flash des baies traditionnelles comme les baies VNX d’EMC, les baies Compellent SC de Dell ou les baies de la série E de NetApp. Un choix délibéré qui ne nie pas l’intérêt de ses baies dans certains scénarios, mais qui s’explique par le fait que ces baies n’ont aucune capacité de scale-out ou de scale-up leur permettant d’évoluer avec les besoins des architectures Cloud modernes, à moins de les coupler avec un étage de virtualisation de stockage comme peuvent en proposer DataCore (SanSymphony), FalconStor (NSS) ou IBM (SVC).

Cisco UCS Invicta : le ver dans le fruit de l’alliance Cisco/EMC

Invicta
Cisco UCS Invicta

Pour développer ses baies de stockage 100% Flash, Cisco a pris un raccourci, celui de l’acquisition. Fin 2013, le n°1 mondial des réseaux a racheté son compatriote Whiptail. Les baies de stockage Invicta du constructeur ne sont ni plus ni moins que les baies 100% Flash développées à l’origine par Whiptail, avec un bémol : Cisco a intégré l’outil d’administration de ces baies avec UCS Director afin de fournir une console unique de management couvrant l’ensemble de son offre d’infrastructure.

Le cœur de l’offre Invicta repose sur les nœuds Cisco UCS Invicta CS3124SA (24 To de capacité Flash), en fait une version rebrandée des anciens nœuds Whiptail Invicta (env. 150 000 $, prix public). Ces nœuds sont des baies SAN bi-contrôleurs que Cisco interconnecte à ses serveurs via FCoE.

Plusieurs nœuds Invicta peuvent être agrégés en un système de stockage unique via ce que Whiptail appelait un « storage router » et que Cisco a rebaptisé Invicta Scaling System. Cet équipement transforme en fait les nœuds individuels en composants d’un système de stockage Flash en mode scale-out.

En théorie, cette architecture permet à Cisco de proposer à ses clients une alternative aux baies XtremIO d'EMC ou FlashRay de NetApp, ce qui n'augure rien de bon à terme pour les partenariats avec les deux constructeurs de stockage (au moins sur le haut de gamme).

La commercialisation de la gamme Invicta en mode scale-out a toutefois connu un arrêt brutal en 2014, Cisco ayant détecté un problème technique dans le code de sa technologie de scale-out qui nuisait aux performances.

La commercialisation de la technologie a repris au dernier trimestre 2014. Il reste désormais à voir si Cisco positionnera ses baies en concurrence frontale des baies 100% Flash de ses partenaires, tels que NetApp, EMC ou Pure Storage.

EMC XtremIO : La baie 100%Flash la plus vendue du marché

XtremIO

EMC XtremIO

EMC a lui aussi pris la voie de l’acquisition pour bâtir son offre de baie 100%Flash. Sa baie de stockage Xtremio est le fruit du rachat de la start-up israélienne éponyme en 2012. Il s’agit d’une baie 100% Flash à architecture scale-out, dont l’objectif est de délivrer des services de stockage avec une latence garantie inférieure à la milliseconde. Les principaux marchés visés sont celui des applications transactionnelles très sensibles à la latence ainsi que celui de la virtualisation de postes de travail et plus généralement de la virtualisation.

La force des baies XtremIO tient dans leur architecture spécifiquement optimisée pour le stockage Flash. D’une certaine façon, on peut considérer que les baies XtremIO sont des baies hybrides combinant mémoire vive et Flash. L’ensemble des métadonnées sont stockées en mémoire et les opérations de traitements des I/O, de déduplication/compression s’effectuent « in memory », ce qui assure des performances optimales (ce n’est que lorsque les processus de déduplication/compression sont achevées que les données sont finalement « vidangées » sur les SSD).

Chaque nœud d’un cluster XtremIO (ou XBrick) embarque deux contrôleurs à base de puces Xeon E5 en mode actif/actif (ce qui fournit une redondance interne au nœud) ainsi que 25 disques SSD. La capacité brute de chaque Xbrick est de 10 To ou 20 To (SSD de 400 ou 800 To), ce qui se traduit par une capacité brute de 60 ou 120 To pour un cluster de 6 Xbrick de 33U (le maximum actuellement supporté par EMC). EMC estime que la capacité utile par baie cluster est environ six fois supérieure une fois les données dédupliquées.

Chaque nœud Xbrick délivre environ 150 000 IOPS (blocs de 8K, 70% en lecture, 30% en écriture), soit 900 000 IOPS pour un cluster de 6 nœuds et ce avec une latence d’une demi-milliseconde (la bande passante délivrée par un cluster de 6 Xbrick atteint 18 Go/s). Une des raisons de cette « scalabilité » linéaire est que les données et les I/O sont distribuées de façon équitable entre les nœuds par un mécanisme de load balancing et que les échanges entre nœuds ne s’effectuent pas sur le même réseau que celui qui sert les IO en provenance des serveurs, mais via une fabric dédiée, s’appuyant sur le protocole Infiniband

La protection des données est assurée via un mécanisme de parité qui peut supporter jusqu’à la perte de 6 disques sur les 25 disques SSD d’un X-Brick, mais il n’y a pas de mécanisme de parité distribué entre les nœuds. Chaque X-Brick est de facto responsable de la protection des données qu’elle contient.

Cette approche est à l’opposé d’un système en cluster, comme celui de Solidfire, où le cluster peut supporter la perte de SSD, mais aussi la perte d’un nœud. Dans le cas d’XtremIO, la perte d’un nœud aurait des conséquences catastrophiques sur le cluster (c’est la raison pour laquelle EMC a opté pour des systèmes bi-contrôleurs et a intégré des onduleurs redondants pour protéger chaque X-Brick). La seule faiblesse que LeMagIT voit à cette approche est qu’une défaillance catastrophique d’alimentation - ce qui suppose la chute de deux onduleurs alimentant un même X-Brick - pourrait mettre à bas un cluster XtremIO. La probabilité est extrêmement faible, mais mieux vaut être prévenu.

En l’état des développements, la baie XtremIO s’intègre avec le contrôleur de virtualisation VPLEX et avec les appliances de réplication et de protection continue de données EMC Recoverpoint. Cette compatibilité avec Recoverpoint pourrait à terme servir de passerelle avec les autres systèmes de stockage d’EMC en permettant la réplication de données depuis et vers d’autres baies de la marque.

HP StoreServ 7450 : Quand 3Par se met au 100%Flash

StoreServ

HP StoreServ 7450

HP a profité de sa conférence Discover 2014 qui se tenait en juin à Las Vegas pour présenter la réponse d’HP aux avancées de ses concurrents en matière de baies 100% Flash.

Cette réponse est en fait une évolution de la baie Flash HP 3PAR StoreServ 7450 annoncée l’an passée. Lors du lancement de cette offre, HP avait fait l’impasse sur plusieurs fonctions importantes et notamment la déduplication de données inline, une impasse qui jusqu’à ce jour l’empêchait de fournir une réponse adaptée en termes de rapports prix/performances aux solutions de constructeurs comme Pure Storage, SolidFire ou Tegile.

Pragmatique, HP a fait évoluer son offre de façon à répondre aux principales critiques jusqu’alors faite au 7450. Comme l’explique Dave Scott, la principale nouveauté est l’arrivée de la déduplication inline – sous le nom de « Thin deduplication », une fonction dont la firme assure qu’elle n’a pas d’impact sur les performances du fait de son accélération par l’ASIC intégré aux baies 3Par. HP a aussi ajouté des fonction de clonage  de volume – dites « Thin Cloning » – ainsi qu’une fonction d’indexation et de recherche de métadonnées censée réduire la consommation mémoire et accélérer l’accès aux données.

Selon HP, sa technologie de déduplication permet des gains de capacités d’un facteur allant de 4 pour 1 à 10 pour 1 selon la nature des données ingérées. Ce qui permet de réduire d’autant le coût de stockage au gigaoctet. HP a aussi validé des disques MLC de 1,92 To pour la baie 3Par StorServ 7450, en fait des disques de 1,6 To, dont HP a rendu accessible la partie habituellement utilisée par le SSD pour ses mécanismes de protection de données (l’OS des baies 3Par gère alors les questions de protection de données).

Le tout est assorti d’une garantie de cinq ans sur les SSD et d’une garantie de disponibilité des données de 99,9999 %. Selon HP, la combinaison de ces améliorations permet d’atteindre un coût de 2$ par Gigaoctet soit un niveau inférieur à celui annoncé par Pure Storage (4 à 5 $).

Il est aujourd’hui possible d’agréger jusqu’à 4 nœuds contrôleur StorServ 7450 en un système de stockage unique capable de délivrer 900 000 IOPS (blocs de 4K en lecture avec une latence de 0,7 ms). Une baie 3Par StorServ 7450 peut désormais accueillir jusqu’à 460 To de capacité brute soit une capacité utilie de 1,3 To (après impact de la protection de données et de la déduplication).

HP annonce des performances supérieures à 800 000IOPS avec une latence inférieure à 0,7ms. Et bien sûr toutes les fonctions habituelles des baies 3 Par sont disponibles, notamment la réplication de données et le metro cluster. Autant de fonctions qui permettent à HP de se différencier des nouveaux entrants.

Notons enfin que les fonctions de fédération des baies 3Par, permettent aussi de définir des politiques avancées de mouvement de données entre baies 100% Flash et baies de disques, ce qui est aussi une différence importante par rapport aux offres concurrentes.

IBM FlashSystem 840

FlashSystem

IBM FlashSystem 840

IBM a développé une offre complète de systèmes de stockage 100% Flash en s’appuyant sur l’expertise issue du rachat de Texas Memory Systems en 2013. Le dernier-né de Big Blue est la baie FlashSystem 840, une évolution du FlashSystem 820, conçu à l’origine par Texas Memory Systems.

Le FlashSytem 840 se distingue de son prédecesseur par l’usage d’une technologie permettant d’abaisser la latence des entrées sorties (technologie baptisée « MicroLatency » par Big Blue).

Selon IBM Le FlashSystem 840 peut accueillir jusqu’à 48 To de flash eMLC (configuration à base de 12 modules de 5,5 To agrégés via Raid 0 en utilisant le même mécanisme de striping Raid variable que le FlashSystem 820 – ou 40 To en Raid 5) dans un boîtier au format 2U.

Grâce à la technologie MicroLatency, la baie affiche une latence de 135 microsecondes en lecture et de 90 microsecondes en écriture. En matière d'IOPS les performances annoncées par IBM sont de 1,1 Million d'IOPS en lecture aléatoire de blocs de 4K et de 600 000 IOPS en écriture aléatoire.

Selon Big Blue, les modules de Flash sont remplaçables à chaud de même que les contrôleurs et les batteries. Le FlashSytem 840 supporte les protocoles FC 8 et 16 Gbit/s, InfiniBand QDR et FCoE (il est possible de mixer les interfaces) et supporte nativement le chiffrement des données au repos (AES-XTS 256).

Le point faible de la baie FlashSystem 840 est qu’elle n’intègre pas de fonctions avancées de gestion de données. Le support des snapshots, de la réplication ou du clonage ne fait pas parti des attributs de la baie. Pour bénéficier de ces fonctions, il faut ajouter un contrôleur de virtualisation SVC (San Volume Controler) en frontal de la baie, qui prend alors le nom de FlashSystem V840. Un bénéfice additionnel de cet ajout est le support de la compression de données.

Selon IBM, il est possible de constituer un cluster à haute performance composé de jusqu’à 6 baies 840 et 8 contrôleurs SVC pour disposer de fonctions avancées de miroir, de snapshot, de compression, de thin provisioning et de tiering de données – le contrôleur SVC peut à la fois piloter des baies 840 et des nœuds de stockage traditionnels et migrer les données dynamiquement des uns vers les autres. Notons toutefois que l’ajout de ces services de données ont un prix en matière de latence, les contrôleurs SVC étant dans le chemin de données.

Pure Storage : un nouveau venu aux dents longues

PureStorage

Pure Storage

Pure Storage a fait ses premiers pas sur le marché en 2013 et s’est depuis imposé comme l’un des acteurs qui comptent sur le marché du stockage 100% Flash. La firme propose à son catalogue trois baies SAN 100 % Flash, les FlashArray 405, 420 et 450. Ces dernières s’appuient sur une architecture bi-contrôleur assez traditionnelle et se différencient les unes des autres par la performance de leurs contrôleurs et par leur capacité maximale (respectivement 13, 35 et 70 To de capacité brute). Toutes disposent à la fois de ports Ethernet et Fibre Channel.

Les baies de Pure Storage intègrent nativement des fonctions de compression et de déduplication de données inline. Ces fonctions permettent,selon le constructeur, d’accroître par un facteur de 4 à 6 la capacité utile de ses baies (par exemple, la baie FA-420, qui a une capacité Flash de 35 To est donnée pour une capacité utile de 125 To). Cette astuce permet à Pure Storage de revendiquer un coût de stockage au teraoctet proche de 4$. La déduplication permet aussi de doper les performances et de minimiser l’usure des modules Flash.

Si les baies de Pure Storage disposent de mécanismes de déduplication sophistiqués (en fait 5 algorithmes différents en fonction des données et de la charge de la baie, dont un mécanisme en mode post-process destiné à accroître encore les taux de réduction de données obtenus inline), elles étaient jusqu’à récemment dépourvues de fonctions de réplication de données Cette faiblesse a été réglée à la mi-2014 par l’arrivée de la version 4.0 de l’OS Purity. Le nouvel OS ajoute aux baies du constructeur un mécanisme intégré de réplication asynchrone relativement sophistiqué puisqu’il supporte la réplication bidirectionnelle entre baies ou la réplication d’une baie vers plusieurs baies ou de plusieurs baies vers une seule. Ce mécanisme de réplication peut être organisé par LUN par cluster… Il est aussi possible de définir des politiques de rétention des snapshots répliqués sur la baie de destination. Comme pour toutes les autres fonctions de l’OS, la réplication est intégrée au prix de la baie et ne nécessite pas une licence séparée. L’arrivée de Purity 4.0 a donc apporté donc un vrai gain fonctionnel pour les clients actuels sous contrat de maintenance

Selon Pure Storage, une baie FlashArray FA-405 « d’entrée de gamme » peut piloter entre 2,75 et 11 To de capacité Flash, pour une capacité utile typique maximale de 40 To. Elle dispose en standard de 4 ports 10Gbit Ethernet mais peut aussi accueillir jusqu’à quatre ports Fibre Channel 8Gbit. D’après le constructeur le FA-405 délivre jusqu’à 100 000 IOPS sur des blocs de 32K et sa bande passante peut atteindre 3 Go/s.

En haut de gamme, le FA-450, peut gérer entre 34 et 70 To de capacité Flash, pour une capacité utile théorique de 250 To. La baie peut accueillir jusqu’à 12 ports 10 Gbit Ethernet ou 12 ports Fibre Channel 16 Gbit/s. Selon Pure Storage, elle peut délivrer jusqu’à 200 000 IOPS (blocs de 32K) et une bande passante de 7Go/s.

Violin Memory 6000 et Concerto 7000

Violin

Violin Memory 6000

Le pionnier des baies de stockage Flash dispose aujourd’hui d’un catalogue de baies Flash assez simple qui se compose des baies Violin 6000 et de la famille Concerto 7000.

La Série Violin 6000 comprend un modèle équipé de modules de mémoire Flash SLC et plusieurs modèles à base de mémoire MLC. Le premier modèle, le Violin 6616, a une capacité de stockage de 16 To (12 To utiles) et peut délivrer jusqu’à 1 million d’IOPS (mix de lectures et d’écritures sur des blocs de 4K). Il dispose d’interfaces Fibre Channel, 10 Gigabit Ethernet et Infiniband QDR et offre une latence pouvant atteindre 200 microsecondes.

Les autres modèles de la gamme s’appuient sur des modules de mémoire MLC. La série 6200, disponible dans des capacités de 48 To et 64 To, délivre jusqu’à 900 000 IOPS avec une latence de 250 microsecondes, tandis que la série 6100, disponible dans des capacités allant de 16 To à 32 To, délivre jusqu’à 600 000 IOPS avec une latence de 200 microsecondes. Les baies Violin de la série 6000 utilisent des modules propriétaires à base de mémoires MLC ou SLC. Chaque unité se présente sous la forme d’un boîtier rackable de 3U que l’on peut connecter directement à un serveur (via une interface Infiniband ou PCIe) ou partager en SAN via des interfaces FC ou 10Gigabit. L’une des particularités des baies de la série 6000 est qu’elles sont dépourvues de services avancés de données (compression, déduplication, réplication…) et se concentre sur la performance pure.

Pour les clients qui ont besoins de services de données avancés, Violin a conçu la gamme Concerto 7000. Cette famille est en fait dérivée directement des baies de stockage 100% Flash de la série 6000 et apporte le support de fonctions avancées de réplication (synchrone et asynchrone), de clustering, de CDP et d’optimisation WAN.

Le lancement de la famille Concerto est la réponse de Violin aux critiques portant sur l’absence de fonctions avancées de stockage dans ses baies Flash. Les Concerto sont en fait des baies de la famille 6000 modifiées dans lesquelles les contrôleurs x86 font tourner un OS de stockage dérivé d’un code OEM acquis par la firme. Même si Violin s’est refusé à le confirmer, le code en question n’est autre que celui de la suite de stockage de FalconStor.

L’ajout de ce code permet à Violin de proposer deux des fonctions les plus demandées par ses clients, à savoir la réplication asynchrone et la réplication synchrone. Cette dernière s’inscrit tout particulièrement bien dans la stratégie haut de gamme de Violin et fait de la firme l’une des rares à même de proposer des capacités de stretched cluster (jusqu’à environ 100 km) avec RPO et RTO à zéro. Mais l’offre Concerto ne s’arrête pas à la seule réplication. Elle intègre aussi des fonctions avancées de CDP (avec optimisation de l’usage du WAN) et de sauvegarde.

 Avec l’offre Concerto, il est possible d’agréger plusieurs unités en un système unique. La limite est pour l’instant fixée à 4 nœuds, ce qui permet à Violin de proposer un cluster haut de gamme de 18 U  (incluant la partie réseau) avec 280 To de capacité brute et 2 millions d’IOPS avec une latence inférieure à la milliseconde.

Notons que les clients actuels de baies Violin Series 6000 ont la possibilité de les faire évoluer vers des baies Concerto par mise à jour de leurs contrôleurs et achat des licences adéquates. Selon Eric Herzog, le directeur marketing de Violin Memory, le prix des baies Concerto devrait approcher les 4$ par Go.

SolidFire : le pari du stockage flash en cluster

SolidFire

SolidFire

SolidFire, est le pionnier du stockage 100% Flash en cluster. Fondée par l’un des développeurs originels d’OpenStack, la firme a tout d’abord positionné son offre comme la solution idéale pour la fourniture de services de stockage en mode bloc pour les fournisseurs de services cloud OpenStack. Mais elle a peu à peu enrichi les fonctions de ses baies pour en faire des alternatives crédibles aux baies de stockage Flash entreprise des leaders du secteur. D’ailleurs les baies de SolidFire ont été considérées en 2014 par Gartner comme les plus abouties du marché. L’un des points clés de l’offre de SolidFire est sa capacité à garantir une qualité de service sur mesure en fonction des applications. Une fonction qui est particulièrement intéressante dans le cadre de déploiements d’architectures cloud, ses baies étant à même de délivrer précisèment le nombre d’IOPS ou le débit alloué à chaque VM (depuis d’autres constructeurs ont introduit des fonctions similaires dont NetApp ou la start-up CloudByte ).

Les nœuds de stockage Flash de la firme, les SF2405 et SF4805, sont des serveurs x86 bi-socket Xeon au format rack 1U qui embarquent  chacun 10 disques 2,5 pouces. Le premier est équipé de SSD de 240 Go et intègre 64 Go de mémoire vive. Il est motorisé par deux puces Xeon hexacoeurs dotées de 15 Mo de cache chacune. Le SF4805 est, quant à lui, équipé de 10 SSD de 480 Go et intègre 128 Go de RAM. Il est propulsé par les mêmes Xeon que le SF2405.

La dernière version de l’OS Element OS  de SolidFire, la version 6, apporte plusieurs fonctions qui faisaient jusqu’alors défaut aux baies de SolidFire dont la réplication entre clusters ou le support du Fibre Channel .

La fonction real-time replication de SolidFire est une fonction de réplication asynchrone bidirectionnelle intégrée au firmware des baies qui permet à plusieurs clusters SolidFire de répliquer leurs données entre eux. Elle supporte de multiples topologies de réplication (un cluster peut être appairé, jusqu’à 4 autres clusters) et permet enfin à SolidFire de supporter des fonctions avancées de reprise après désastre, ce qui lui faisait défaut jusqu’alors.

Une autre nouveauté majeure est l’arrivée du support de Fibre Channel en plus d’iSCSI. Les nœuds SolidFire supportaient jusqu’alors une connectivité 10 Gigabit Ethernet et ils peuvent désormais accueillir également des connexions Fibre Channel 16 Gbit/s. Ce qui devrait permettre à SolidFire d’attaquer plus agressivement le monde de l’entreprise alors que la firme était jusqu’alors plutôt active sur le marché des fournisseurs de services.

Une autre évolution apportée par Element OS 6 est la possibilité d’utiliser des nœuds hybrides dans un même cluster. Jusqu’alors un cluster SolidFire devait être composé de nœuds de stockage similaires. Désormais, un même cluster peut accueillir des nœuds de capacités et de performances différentes. Cette capacité à intégrer des nœuds de générations et de performances différentes dans un même cluster devrait aussi grandement simplifier les évolutions des clusters SolidFire, en évitant des opérations de migration complexes. Rappelons qu’un cluster SolidFire peut accueillir jusqu’à 100 nœuds et avoir une capacité (avec les nœuds actuels) allant de 60 To à 3,4 Po de Flash.

Notons pour terminer que SolidFire a intégré une capacité de sauvegarde et de restauration à ses baies. Concrètement, la fonction de sauvegarde à base de snapshots de SolidFire permet de sauvegarder le contenu d’un volume sur tout stockage supportant les protocoles objets Amazon S3 ou OpenStack Swift. La fonction est notamment destinée aux opérateurs de cloud qui souhaitent proposer à leurs clients des fonctions de sauvegarde intégrées à leur offre.

Kaminario K2 : Scale-out et erasure coding

Kaminario

Kaminario K2

Comme SolidFire, Kaminario est l’un des pionniers des baies de stockage Flash en mode scale-out. La cinquième génération de ses baies de stockage SAN iSCSI et Fibre Channel K2, dévoilée en mai 2014 s’appuie sur des nœuds contrôleurs x86 au format rack 19 pouces. Les baies K2 sont organisées en blocs (baptisés K-Block), chacun composé de deux contrôleurs redondants en mode actif/actif et de tiroirs de disques – il s’agit en fait de serveurs Supermicro embarquant deux lames serveurs x86 de 1U de haut chacune. Chaque bloc est une baie autonome qui peut évoluer en mode scale-up par ajoute de tiroirs de disques SSD. Il est aussi possible d’assembler plusieurs blocs au sein d’un cluster relié par des interfaces Infiniband pour assembler une baie de stockage Flash en mode scale-out, dont les performances augmentent linéairement avec le nombre de blocs utilisés (chaque bloc ajoute environ 250 000 IOPS en matière de capacités d’entrées/sorties, ainsi que 3,2 Go de bande passante utile). À ce jour le nombre maximal de blocs dans un cluster est de huit, des caractéristiques qui font de Kaminario l’un des concurrents directs de l’offre XtremIO d’EMC.

Chaque bloc peut être connecté à un ou deux tiroirs de disques chacun capable d’accueillir un maximum de 24 SSD au format 2,5 pouces. La capacité utile par bloc (après RAID et déduplication) va de 7 To à 180 To, soit une capacité maximale allant de 28 To à 720 To pour un cluster de 4 blocs.

Comme Pure Storage, Kaminario s’appuie sur une architecture à base de blocs variables ce qui lui permet d’optimiser la gestion des entrées/sorties (mais aussi le volume des métadonnées), là où les baies Flash travaillant sur des blocs fixes de 4K génèrent en back end plusieurs opérations d’I/O lorsque les entrées sorties ont une taille supérieure à 4K (Kaminario note que sur sa base installée, la taille moyenne d’un bloc est de 42Ko).

L’une des principales nouveautés apportée par la cinquième génération de baies est l’intégration d’un mécanisme avancé de réduction de données en mode inline. Chacun des blocs ingérés par la baie passe désormais au travers d’un mécanisme de réduction de données inline (compression LZ4 et déduplication) afin non seulement de réduire le nombre d’I/O atteignant le back-end de stockage, mais aussi afin d’optimiser la capacité de la baie. Selon Kaminario, la déduplication est globale lorsque plusieurs Blocs K2 opèrent en mode cluster. Il est à noter que les clients ont la possibilité de désactiver la déduplication volume par volume pour des applications pour lesquelles la technologie n’offre que de faibles perspectives de réduction de données, ce qui permet, entre autres, de limiter la charge CPU de la baie.

Pour la protection des données, les baies K2 implémentent un algorithme à base d’erasure coding qui fournit un niveau de protection supérieur au Raid6 et qui ne consomme que 12,5 % de la capacité des baies. Cet algorithme protège contre la panne simultanée de 3 SSD par tiroir de disque (et d’un SSD additionnel pendant la reconstruction de données), le tout en garantissant que les opérations de reconstruction des pools RAID se font sans impact sur la performance de la baie. Les baies K2 proposent également un mécanisme de snapshot efficace (la taille du snapshot est strictement égale à celle des deltas de données dédupliquées) et intégré avec les API de VMware, Oracle et Microsoft. Ces snapshots sont utilisés comme support à la technologie de réplication asynchrone intégrée aux baies de Kaminario.

Notons, pour terminer, que Kaminario propose également un plug-in d’administration pour la console vCenter de VMware et un plug-in Cinder pour OpenStack. Si le constructeur ne communique pas de prix pour ces baies, il indique comme Pure Storage un coût au Go utile (après mécanisme RAID et déduplication). Selon Kaminario, l’efficacité de son processus de déduplication permet d’obtenir un coût moyen de 2 $ par Go contre 3 à 4$ pour Pure Storage. Mais comme d’habitude, ces chiffres sont à prendre avec des pincettes puisqu’ils dépendent largement de l’efficacité de la déduplication sur les types de données écrits par les applications sur la baie…

NetApp FlashRay : une architecture conçue pour la Flash

FlashRay

NetApp FlashRay

Avec près d’un an de retard sur son planning originel,  NetApp a annoncé en septembre 2014 avoir commencé à livré les premiers exemplaires de sa baie de stockage 100 % Flash de nouvelle génération, baptisée FlashRay.

FlashRay est une baie de stockage Flash développée ex-nihilo par NetApp, dont la mission est de contrer les baies 100 % Flash d’EMC (XtremIO), HP (3Par 7450), Pure Storage, SolidFire ou Violin Memory (Concerto 7000). Au cours de sa conception, NetApp a développé un nouvel OS baptisé Mars, dont l’objectif est d’assurer un usage optimal de la mémoire Flash tout en garantissant une latence minimale. Mars doit aussi fournir un ensemble riche de services de stockage et permettre une interopérabilité avec l’OS des baies FAS de NetApp, Ontap, afin, par exemple, de permettre la mobilité de données d’une plate-forme à une autre (les services de réplication et de backup, notamment, seraient compatibles avec ceux d’Ontap).

Selon NetApp, l’OS Mars inclut  un ensemble de fonctions permettant d’optimiser l’efficacité du système FlashRay et de minimiser la latence. L’OS est ainsi capable de gérer des tailles de blocs variables et embarque un ensemble de services d’optimisation de données actifs en permanence. La baie FlashRay embarque des technologies de compression et de déduplication à taille de bloc variable. L’objectif de ces technologies est d’assurer que la latence de la baie reste inférieure à la milliseconde.

Un autre point clé de la baie FlashRay est son aptitude à fonctionner en mode cluster (ou scale-out) ; ce qui permet aux clients de faire évoluer leur infrastructure en ajoutant progressivement des nœuds additionnels en fonction de leurs besoins.

Chaque nœud FlashRay se présente sous la forme d’un contrôleur redondant 6U capable d’accueillir 24 SSD  MLC de 480 Go pour une capacité brute de 10,5 To. Dans la première mouture présentée par NetApp, seul le Fibre Channel à 16 Gigabit/s est supporté comme interface de connexion aux serveurs. L’une des caractéristiques importantes de FlashRay à son lancement est l’inclusion de services de snapshot et de réplication ainsi que le support de mécanismes avancés de gestion de QoS. NetApp reste toutefois encore discret sur les capacités techniques de son stockage 100% flash, l’offre étant encore largement en version bêta.

Hitachi G1000 : Le 100%Flash couplé à la très haute disponibilité

G100

Hitachi G1000

Quatre ans après le lancement de sa dernière baie de stockage haut de gamme, l’Hitachi VSP, Hitachi a dévoilé au printemps 2014 l’Hitachi VSP G1000, la dernière génération de ses systèmes de stockage pour environnements critiques x86, Unix et Mainframe (une baie aussi revendue par HP sous le nom XP7).

Dans un marché réputé pour son attention aux caractéristiques techniques, notamment en matière de disponibilité et de performances, Hitachi a dévoilé plusieurs innovations qui pourraient se révéler essentielles pour permettre au constructeur japonais de reprendre du terrain sur ses deux grands rivaux sur le marché du stockage critique. La firme a notamment dévoilé une version 100% Flash de sa baie de stockage critique, une version qui s’ajoute aux versions hybrides associant disques durs et Flash.

L’amélioration qui devrait séduire les grands clients du constructeur est le support d’architecture géodistribuées en mode actif/actif. On entend par là la capacité des baies situées dans deux datacenters distants de permettre un accès transparent aux données tant en lecture qu’en écriture. Sur le marché du stockage critique, seul EMC proposait jusqu’alors une fonction similaire au moyen de ses appliances de virtualisation de stockage VPLEX Metro. Dans la pratique, Hitachi a intégré des capacités de type VPLEX Metro dans les contrôleurs de ses baies VSP G1000. Cette intégration permet à Hitachi de proposer à ses clients des architectures à même d’assurer une parfaite continuité d’activité, sans la complexité induite par la mise en œuvre du couple VPLEX/VMAX chez EMC.

Côté architecture interne, les VSP G1000 reprennent les fondamentaux des actuels VSP, à savoir une architecture interne bâtie autour d’un bus en crossbar (la 7e génération du bus Hi-Star) offrant une bande passante interne de 896 Go/s. Le bus Hi-Star permet l’interconnexion des multiples contrôleurs de la baie  - jusqu’à 16 contrôleurs (ou Virtual Storage Directors en langage Hitachi - à base de puces Xeon) – partageant un espace de cache commun (jusqu’à 2 To de cache mémoire pour une baie pleinement configurée). Il ne s’agit pas d’une architecture scale-out mais d’une architecture de type scale-up à l’ancienne, mais ces caractéristiques en font une alternative plus que séduisante à d’autres approches scale-out limitées

Ce « rafraîchissement » technique permet à Hitachi d’annoncer des performances pouvant atteindre 3 millions d’IOPS (lorsque la baie est configurée uniquement avec des modules de mémoire Flash) et un débit soutenu de 48 Go/s. Dans sa configuration 100% Flash la baie peut accueillir un maximum de 2 pétaoctet de modules Flash.

Un point intéressant dans l’annonce d’Hitachi est la mise en avant de l’OS des baies VSP, SVOS (Storage Virtualisation Operating System). Ce système d’exploitation est, selon Bob Plumridge, le CTO Europe de la firme, destiné à devenir le fondement de la stratégie d’Hitachi en matière de Software Defined Storage (en clair Hitachi finira par proposer des versions entièrement logicielle de son architecture, mais il faudra pour cela qu’Hitachi termine son travai d’élimination de ses ASIC propriétaire, un chantier en bonne voie). Plumridge n’a pas caché le fait que SVOS reste pour l’instant encore très lié aux baies VSP. Mais les ambitions d’Hitachi vont au-delà du VSP G1000. SVOS sera aussi l’OS des prochaines versions modernisées des baies HUS VM et HUS (Hitachi Unified Storage) attendues dans le courant 2015. Ces baies devraient permettre à Hitachi de proposer une offre 100% Flash à un tarif plus agressif que celui du VSP G1000, dont la vocation reste très haut de gamme.

Pour approfondir sur DevOps et Agilité

Close