Danomyte - Fotolia

Stockage primaire : quelle place pour le Software Defined Storage ?

Depuis plusieurs années, le monde du stockage se pâme pour une nouvelle appellation, le Software Defined Storage, un terme que l’on pourrait traduire en français par stockage à base de logiciel. Mais quelle place tient-il réellement dans le stockage aujourd’hui.

Cet article se trouve également dans ce contenu premium en téléchargement : STORAGE: SDS & Virtualisation du Stockage

Si l’on peut encore remercier les services marketing américains d’avoir créé le pléonasme ultime avec le terme « Software Defined Storage » — depuis longtemps, la vraie valeur d’une baie de stockage, ne réside plus dans son matériel, mais dans le logiciel qui la propulse —, il n’en reste pas moins vrai que la montée en puissance du logiciel et la banalisation du matériel ouvrent la voie à de nouveaux modes de consommation du stockage.

Historiquement, les fonctions des logiciels de stockage étaient intrinsèquement liées aux capacités du matériel sous-jacent, et le fait de lier matériel et logiciel de façon étroite était la seule façon de délivrer les services attendus avec une garantie de bon fonctionnement.

Ce verrou qui liait matériel et logiciel est en train de sauter chez l’ensemble des fournisseurs du secteur.

Quand DataCore et FalconStor ouvraient la voie au début des années 2000

Certains fournisseurs ont ouvert la voie dès la fin des années 1990 et le début des années 2000.

Dans le SDS, l’un des grands pionniers a sans doute été CentraVision avec son système de fichiers en cluster CVFS, plus connu aujourd’hui sous le nom de StorNext depuis son rachat par ADIC puis par Quantum.

StorNExt, actuellement en version 5, est aujourd’hui l’un des systèmes de fichiers en cluster les plus utilisés dans le monde des médias, de la vidéo-protection et de façon générale dans les applications très sensibles à la performance et manipulant de grandes quantités de données.

Deux autres acteurs, Datacore et FalconStor, ont également joué un rôle de pionnier et ont popularisé le concept de virtualisation du stockage avant d’être suivis en 2003 par IBM. Depuis, les trois sociétés n’ont eu de cesse de faire évoluer leur offre. Leurs logiciels respectifs, SANsymphony, FreeStor et Spectrum Virtualize (ex-SVC), sont aujourd’hui capables non seulement de virtualiser l’ensemble du stockage existant d’une entreprise, mais aussi de fournir de façon autonome ce stockage en s’appuyant sur le stockage embarqué des serveurs sur lesquels ils sont mis en oeuvre.

Datacore Sansymphony et FalconStor FreeStor, peuvent ainsi être installés en frontal de baies existantes, afin d’homogénéiser la gestion du stockage et de services clés, comme la réplication ou le clonage de données.

Ils peuvent aussi être utilisés directement sur des serveurs x86 bourrés de disques durs pour délivrer des services similaires à ceux d’une baie de stockage traditionnelle. Et ils peuvent le faire avec des niveaux de performances spectaculaires.

Récemment Datacore a ainsi atteint un score de plus de 1,2 millions d’IOPS au benchmark SPC-1, pulvérisant les résultats de systèmes propriétaires équivalents. Côté IBM Spectrum Virtualize a longtemps été mis en avant pour ses capacités de virtualisation de stockage.

Mais le logiciel est aussi au cœur des baies de milieu de gamme StorWize de Big Blue, qui ne sont en fait rien d’autre que des appliances x86 préconfigurées avec le logiciel.

Le stockage logiciel : une déferlante qui s’est poursuivie tout au long des années 2000

La vague de la virtualisation de stockage a été suivie vers la fin de la première décennie des années 2000 par une seconde vague de logiciels, cherchant cette fois-ci à délivrer des services de stockage SAN ou NAS sur la base de serveurs x86.

Des acteurs comme LeftHand, Microsoft, Nexenta, Starwind ou Sun Microsystems ont tous tenté de délivrer des fonctions de stockage avancé sous forme logicielle.

LeftHand (rebaptisé StoreVirtual depuis son rachat par HPE) est une solution de SAN en cluster qui s’appuie sur des serveurs x86 standards. Microsoft de son côté maintient depuis la version 2008 de Windows Server une édition de son OS optimisée pour les applications de stockage. Sa dernière itération est capable de délivrer des services SAN et NAS avancés. Nexenta a quant à lui capitalisé sur la technologie ZFS de Sun et a développé NexentaStor, un OS de stockage dérivé d’OpenSolaris. StarWind s’est appuyé sur Windows pour sa solution de stockage SAN iSCSI, tandis que Sun Microsystems a fait de Solaris la base d’une offre de stockage ZFS crédible. Toutes ces solutions sont encore sur le marché et sont soit vendues sous forme logicielle soit sous forme d’appliances prêtes à l’emploi.

Depuis 2010, ces deux premières vagues ont été suivies par une troisième, celle des appliances virtuelles de stockage.

Plusieurs grands constructeurs de baies de stockage, dont IBM, NetApp et EMC, ont ainsi décliné leurs offres sous forme purement logicielle.

Et consécration ultime, la plupart des nouveaux acteurs du stockage primaire conçoivent tous leurs systèmes d’exploitation de stockage pour être abstrait du matériel. Des acteurs comme Kaminario, Infinidat, Iguaz.io, reduxio ou SolidFire expliquent ainsi que leurs OS sont conçus dès le départ pour être décorrélés du matériel. Cela simplifie et accélère leurs développements, même si la plupart de ces acteurs continuent encore de vendre leurs solutions sous forme d’appliances.

Enfin, la vague la plus récente est celle des solutions de stockage hyperconvergées incarnées par des solutions comme VMware VSAN, Nutanix, Simplivity, SpringPath et autres.

Ces solutions permettent de concevoir des solutions délivrant à la fois des services de stockage et de « compute » sur un même serveur. Elles sont là encore commercialisées soit sous forme purement logicielle soit sous forme d’appliances prêtes à l’emploi.

Le SDS aujourd’hui : des réalités multiples

Si l’on fait aujourd’hui le bilan des solutions de stockage primaire logicielles (SAN ou NAS), on peut regrouper les « combattants » actuels en plusieurs catégories distinctes :

La première, la plus mature est celle des outils de virtualisation de stockage comme IBM Spectrum Virtualize, Falconstor FreeStor, Datacore SAN Symphony (ces trois logiciels pouvant aussi servir à la constitution de systèmes de stockage SAN distribués et/ou hyperconvergés). Ces outils ont notamment pour atout de simplifier l’administration d’infrastructures disparates et de simplifier la transition entre différentes marques ou différentes générations d’équipements.

La seconde est celle des baies de stockage « logicielles » ou virtuelles. Elles sont soit le fruit d’un développement autonome, soit celui de l’abstraction des OS de stockage SAN/NAS de baies bi-contrôleurs du marché. Déployées sur des serveurs physiques ou sous forme d’appliances virtuelles (VM ou conteneurs), elles délivrent l’équivalent des services d’une baie de stockage bi-contrôleurs d’entrée/milieu de gamme.

Parmi les solutions de cette catégorie, on peut citer des produits tels que EMC Unity VSA, NetApp OnTap Cloud, StarWind vSAN, Windows Storage Server, Nexenta NexentaStor ou un produit libre comme FreeNAS — ces deux derniers s’appuyant sur le système de fichiers ZFS créé à l’origine par Sun Microsystems.

Le principal avantage de ces solutions est la décorrélation entre matériel et logiciel qui permet de faire évoluer son stockage de façon plus souple et plus économique.

Un autre bénéfice est la possibilité d’orchestrer de façon automatique le déploiement d’appliances de stockage virtuelles pour répondre à certains besoins (test et développement par exemple) ou pour déployer des fonctions de stockage avancées dans des endroits où une baie de stockage traditionnelle serait bien trop encombrante et coûteuse (agences, magasins, filiales, bureau distant, etc/).

La troisième catégorie est celle des solutions de stockage distribué SAN ou NAS, telles que Ceph, EMC ScaleIO, EMC Isilon Edge SD, Hedvig, HP StoreVirtual (ex-LeftHand), IBM XIV, Nooba, Qumulo Core, Red Hat Storage (ex-Gluster), Spectrum Scale (ex-GPFS), Storpool, Weka, qui permettent de créer des système de stockage à grande échelle dont les performances et la capacité augmentent avec le nombre de nœuds.

Cette catégorie est actuellement en pleine explosion du fait notamment de la montée en puissance des besoins de stockage pour les applications analytiques et « Big Data » à grande échelle.

La quatrième et dernière est celle des fournisseurs de systèmes de stockage hyperconvergés comme VMware vSAN, Nutanix, Simplivity, Atlantis, dont les solutions ont historiquement été packagées sous forme d’appliances, mais qui de plus en plus proposent aussi des versions purement logicielles de leur technologie. Selon IDC, cette catégorie devrait, à elle seule, représenter près de 5 % du marché mondial de l’infrastructure à l’horizon 2020.

Il est à noter que certaines solutions sont suffisamment flexibles pour être déployés dans plusieurs catégories. C’est par exemple le cas de Datacore SANsymphony (quatre catégories), de Hedvig (trois catégories), de FalconStor FreeStor (deux catégories).

Les solutions traditionnelles font de la résistance

La multiplication des solutions logicielles hypothèque-t-elle l’avenir des baies de stockage telles qu’on les connaît aujourd’hui ? Pour l’instant, la réponse est largement négative.

Tout d’abord parce que les baies de stockage bi-contrôleurs utilisées par nombre d’entreprises ne déméritent pas. Dans bien des cas, elles remplissent parfaitement le rôle qui leur est assigné, en particulier dans les PME, qui n’ont souvent pas besoin d’infrastructures massivement distribuées (acteurs du web ou du e-commerce mis à part).

Loi de Moore aidant, il n’y a aucune raison pour que les baies traditionnelles bi-contrôleurs ne continuent pas à répondre aux besoins de la plupart des PME. Le choix entre baies traditionnelles et solutions logicielles se fera donc soit pour des raisons de coûts, d’opportunités (déploiement d’appliance virtuelle dans une filiale en complément d’une baie physique au siège par exemple) ou d’architecture (remplacement d’une architecture serveur et SAN traditionnelle par une solution hyperconvergée).

Une autre raison de l’inertie actuelle tient à la fois à des raisons d’habitudes, mais aussi d’expertise.

Il ne faut en effet pas sous-estimer le fait que l’assemblage d’une solution de stockage sur mesure combinant matériel et logiciel requiert une expertise que les PME et ETI n’ont pas forcément. Ce qui complique parfois la pénétration des solutions de SDS dans ces entreprises, sauf lorsqu’elles sont packagées sous forme d’appliances.

Dans les grandes organisations, ce sont plutôt les aspects organisationnels qui peuvent être un obstacle.

La mise en œuvre de systèmes SDS performants nécessite des équipes pluridisciplinaires alliant compétences serveurs, stockage et réseau. Or, ces équipes sont encore souvent séparées dans les grands comptes. Changer les habitudes prend du temps et nécessite parfois de ménager quelques susceptibilités.

Approfondir

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close