kentoh - Fotolia

DataCore : une simple mise à jour logicielle démultiplie les performances du stockage

En parallélisant les entrées/sorties dans la dernière mise à jour de son SDS SANsymphony-V, DataCore a apporté à un serveur basique les performances de baies de stockage qui valent 50 fois plus cher.

Et si la gestion des baies de stockage physiques comme virtuelles était complètement en retard par rapport à l’évolution des serveurs ? « Sur des machines modernes, dans lesquels on trouve plusieurs cœurs de processeur, les entrées-sorties vers les disques ne sont jusqu’ici prises en charge que par un seul cœur. Il en résulte un goulet d’étranglement qui affecte autant les contrôleurs des baies de stockage que les logiciels de Software Defined Storage (SDS) », a ainsi lancé Pascal Le Cunff, Directeur Commercial de DataCore pour la France et l’Europe du Sud, dans le cadre de la mise à jour du SDS SANsymphony-V 10 en version SP4. Cette mise à jour comprend justement un mécanisme inédit qui parallélise les I/O sur tous les cœurs présents.

Et force est de constater qu’au banc d’essai SPC-1 IOPS, le résultat est sans appel : à partir d’un serveur 2U basique de marque Lenovo, comportant 28 cœurs répartis sur deux Xeon E5v3, 544 Go de RAM, 16 disques SSD et fonctionnant sous Windows 2008 R2, SANsymphony-V 10 atteint le score de 489 291 IOPS.

C’est-à-dire que cette configuration est la 9ème baie de stockage SAN la plus rapide du monde.

Elle est juste derrière la baie IBM Storwize V7000 et meilleure que les baies très haut-de-gamme IBM DS8870, HPE 3PAR P10000 et EMC VNX8000. Mieux : quand elle est poussée au maximum de ses lectures/écritures sur disque, son temps de réponse aux applications reste de 0,32 millisecondes, soit un temps près de quatre fois meilleur que la baie de stockage la plus rapide du monde, l’Hitachi VSP G1000 HAF (1,15 millisecondes de temps de réponse).

La baie de stockage au meilleur rapport prix/performance du monde

Le record, surtout, réside dans le rapport prix/IOPS. Pour 38.000 dollars, le serveur Lenovo équipé de SANsymphony-V 10 atteint 67,7% des performances d’une baie NetApp FAS8080EX All-Flash (5ème du classement) qui coûte, elle, 1,9 million de dollars, soit 50 fois plus cher.

Le ratio communément accepté jusque là était qu’un serveur doté d’une solution de SDS coûtait en moyenne 50% moins cher qu’une baie de stockage aux caractéristiques équivalentes. « Avec un coût de 0,08 cents de dollars par IOPS SPC-1, un serveur générique sous SANsymphony-V est tout simplement - et de très loin - la baie de stockage haute performances la moins chère du monde », se félicite Pascal Le Cunff.

Il est à noter qu’aucun autre éditeur de SDS (EMC avec ScaleIO, HP avec StoreVirtual, VMware avec VSAN, Atlantis avec USX, l’Open source Ceph, etc.) n’a daigné soumettre son produit installé sur un serveur x86 aux tests SPC-1.

Et parmi les fabricants de systèmes hyperconvergés (des serveurs x86 avec un SDS préinstallé), pratiquement tous brillent aussi par leur absence, en particulier Nutanix et SimpliVity qui prétendent pourtant disposer d’une technologie propriétaire d’accélération.

Seul IBM a joué le jeu : son infrastructure hyperconvergée Power780 atteint le score de 780 081 IOPS SPC-1 (soit 1,6 fois mieux que la configuration testée par DataCore), mais son prix est de... 3,56 millions de dollars.

« Honnêtement, en tant plus que plus ancien vendeur de solutions de SDS, nous avons eu très peur quand nous avons vu débarquer toutes ces solutions concurrentes. Mais après une période de flottement, nous avons tout de même réalisé un très bon quatrième trimestre en 2015. Parce que nous sommes les seuls à parler de performances. Et, grâce à ce test, nous avons compris pourquoi personne d’autre ne le faisait », commente Pascal Le Cunff.

Paralléliser le pilote d’accès au SAN

Selon DataCore, le problème de performances constaté sur toutes les solutions de stockage viendrait du pilote dont se sert l’hyperviseur pour accéder à la baie SAN : alors que toutes les machines virtuelles sont réparties sur tous les cœurs présents pour exécuter leur code, toutes leurs entrées-sorties seraient exécutées de manière séquentielle sur un seul cœur. L’idée de DataCore est donc, au travers d’une technologie que l’éditeur appelle Adaptive Parallel IO, de paralléliser les accès disque en autant de flux qu’il y a de cœurs présents. En clair de découper l’exécution de son pilote en threads parallèles, ce que manifestement tous les autres fournisseurs de stockage ont oublié de faire.

« Il faut mesurer l’enjeu stratégique. Il y a deux ans, nous avons vendu à un client qui avait besoin de beaucoup d’IO 12 serveurs SANsymphony-V. Cette année, nous ne lui en vendrons plus qu’un seul. Tout comme la virtualisation a réduit les ventes de serveurs, cette technique va réduire la quantité de contrôleurs de baies et de licences de SDS. Nous le faisons car notre stratégie est de miser sur des clients fidèles. Mais il est certain que cela ne sera pas forcément compatible avec les business plans d’autres fournisseurs qui misent sur la quantité des ventes », analyse Pascal Le Cunff.

Pour des infrastructures hyperconvergées classiques ou seulement stockage

DataCore vend sa solution sous deux formes, chacune bénéficiant de la nouvelle technologie Adaptive Parallel IO.

SANsymphony-V a besoin de fonctionner seul sur un serveur matériel autonome, qui fait ainsi office d’infrastructure hyperconvergée uniquement destinée au stockage très haute performances mais pas à l’exécution de machines virtuelles. Son logiciel Virtual SAN est en revanche plus classique, puisqu’il s’installe aux côtés d’un hyperviseur VMware ESX dans la même infrastructure convergée. Les performances de cette dernière sont dans ce cas réparties entre l’exécution des VM et les services de stockage.

Outre les lectures/écritures vers une baie SAN virtuelle, les logiciels de DataCore apportent en effet des fonctions supplémentaires comme l’auto-tiering et le snapshot. Il est d’ailleurs à noter que, comme le logiciel ViPR d’EMC, les produits de DataCore sont capables d’utiliser, en plus des disques internes du serveur qui les exécute, des baies externes de marque quelconque et même des services en cloud pour ajouter jusqu’à 15 tiers de stockage.

« Nous pouvons par exemple assurer la duplication en temps réel d’une base de données sur des disques SSD ultra-rapides vers un stockage bien moins cher pour la reprise d’activité en cas d’incident. Alors que les fabricants recommandent généralement d’acheter deux fois la même baie pour assurer la redondance », dit Pascal Le Cunff.

Approfondir

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close