Oporty - stock.adobe.com

Stockage en ligne : les révélations du baromètre Cloud Mercato

Le bureau d’études s’est livré à une minutieuse évaluation d’une vingtaine de services de stockage objet en cloud. Cet article en détaille les résultats, particulièrement étonnants.

Le service en ligne de stockage en mode objet le plus performant pour sauvegarder vos données n’est pas celui des AWS, Azure, Google GCP ou autres grands du cloud. C’est celui du Lyonnais Hopla.cloud. Tandis pour que faire du Big Data, vous aurez tout intérêt à aller chez Google GCP, dont le stockage objet est dans ce domaine 23 fois plus performant que celui d’AWS ou d’Azure !
Enfin, si votre projet est plutôt de puiser dans du stockage objet pour alimenter votre site web ou vos applications mobiles, alors vous gagnerez à choisir l’offre de T-Systems. Ces enseignements font partie des résultats d’un baromètre interactif que vient de publier le cabinet d’études Cloud Mercato, spécialiste des offres d’infrastructures en cloud public.

Suite de l'article ci-dessous

« Nous avons testé les offres de stockage objet d’une vingtaine de fournisseurs de cloud public en Europe et aux USA avec une batterie de machines virtuelles qui exécutaient plusieurs scénarios de cas d’usage. Nous n’avons pas intégré les fournisseurs chinois dans notre baromètre, comme Alibaba Cloud par exemple, car les résultats étaient très instables entre deux mesures et qu’ils effaçaient nos VMs de tests régulièrement. Nous avons donc considéré qu’il ne s’agissait pas de solutions fiables pour les entreprises européennes que nous servons », explique au MagIT Anthony Monthe, le fondateur de Cloud Mercato.

« Le stockage objet d’OVHcloud va devenir très intéressant dès lors qu’ils auront déployé la technologie d’OpenIO qu’ils ont rachetée l’année dernière. »
Anthony MontheFondateur, Cloud Mercato

Un autre grand absent du baromètre est OVHcloud. « Il y a une raison bien particulière : le stockage objet d’OVHcloud va devenir très intéressant dès lors qu’ils auront déployé la technologie d’OpenIO qu’ils ont rachetée l’année dernière. En attendant, les résultats sur leur système actuel, qui doit être retiré sous peu, ne sont pas concurrentiels », ajoute Anthony Monthe, qui assure mettre régulièrement à jour son baromètre.

De grandes divergences de prix

Les mesures des performances données par le baromètre de Cloud Mercato ne sont que l’un des paramètres dont une entreprise doit tenir compte avant de souscrire à une offre de stockage objet en ligne. Les autres sont les différents prix à prendre en compte : le coût mensuel au Go stocké, le coût au Go rapatrié depuis le service, le coût pour 10 000 requêtes effectuées en ligne sur les données et… le coût minimal.

« En effet, certains fournisseurs, comme les Américains Linode et DigitalOcean, qui se veulent des étoiles montantes du cloud avec des offres conçues pour les DevOps, facturent un droit d’entrée de 5 $ par mois. Cela n’existe nulle part chez les géants du cloud public. Qu’est-ce que cela signifie ? Tout simplement que ces nouveaux acteurs ne veulent pas de vous si vous cherchez à héberger de petits contenus. Et pour cause : leurs infrastructures ne sont paramétrées que pour héberger de gros documents. En dessous d’un certain seuil, leurs systèmes sont contre-productifs, l’expérience utilisateur devient catastrophique et ils courent le risque d’une mauvaise publicité », explique Anthony Monthe.

En plus de son baromètre, Cloud Mercato dispose d’un outil en ligne fort pratique pour estimer les différents coûts d’une offre. Il suffit de sélectionner le fournisseur, puis son service de stockage objet et, dans l’onglet Pricing, de jouer avec les curseurs pour simuler des quantités de Go stockés, de trafic ou de requêtes.

Cet outil permet par exemple de se rendre compte que, pour une certaine quantité de données, AWS facture huit fois plus cher son accès que son stockage. Chez T-Systems, l’accès est seulement 2,5 fois plus cher que le stockage. Tandis qu’au contraire, Hopla.cloud facture l’accès aux données cinq fois moins cher que leur stockage. Le MagIt a procédé en l’occurrence à l’évaluation rapide de ce que coûteraient chez chacun le stockage et l’accès à 100 To de données. La facture mensuelle s’élève respectivement chez ces trois fournisseurs à environ 8 000, 7 000 et 6 000 dollars, le baromètre de Cloud Mercato n’indiquant pas les tarifs en euros.

Une synthèse des coûts est par ailleurs reprise dans l’onglet Conclusion du baromètre.

Backup en ligne : le petit Français Hopla.cloud sacré champion

Selon Anthony Monthe, le palmarès des cas d’usage pour un service de stockage objet en ligne est actuellement le suivant : la sauvegarde, l’analytique, le stockage pour des applications cloud (sites web et applications mobiles).

« Nous avons évalué les performances pour la sauvegarde en simulant sur chaque service l’écriture simultanée de trois fichiers de 5 Go chacun, découpés en requêtes de 64 Mo chacune. Nous avons à chaque fois mené nos tests depuis des machines virtuelles hébergées au plus proche du service de stockage en ligne. Il n’y a pas d’intérêt à évaluer la vitesse d’écriture depuis l’extérieur, typiquement depuis le datacenter d’une entreprise, car, dans ce cas, la vitesse de la connexion WAN pénaliserait tellement les mesures que nous ne pourrions plus les comparer », prévient Anthony Monthe.

Le tiercé gagnant de la vitesse d’écriture est Hopla.cloud, donc, avec 333,98 Mo/s, suivi d’IBM Cloud avec 254,22 Mo/s et d’AWS (S3), avec 240,29 Mo/s. À titre indicatif, l’ancien système de stockage objet d’OVHcloud se classe bon dernier avec 31,35 Mo/s.

« La pérennité de l’offre est une considération essentielle lorsque l’on évalue un service cloud. »
Anthony MontheFondateur, Cloud Mercato

« Les Lyonnais d’Hopla.cloud se sont donné les moyens techniques d’avoir un service d’excellence. Leur solution repose sur des équipements de pointe qu’ils ont minutieusement configurés en cluster, avec l’aide de Red Hat sous OpenStack et le système de stockage Ceph », dit le fondateur de Cloud Mercato, en expliquant que son équipe a mené l’enquête chez chaque hébergeur de cloud public pour identifier leurs infrastructures.

Pour autant, il pondère son optimisme concernant Hopla.cloud : « leur problème est qu’ils n’ont pas encore beaucoup de clients. S’ils ne parviennent pas à en recruter régulièrement, alors leur offre risque de devenir de plus en plus chère au fil du temps, et leur infrastructure risque de ne plus évoluer aussi vite que celle de ses concurrents. » Et d’ajouter : « la pérennité de l’offre est une considération essentielle lorsque l’on évalue un service cloud. »

Big Data : le stockage de Google GCP de très loin le plus performant

Pour évaluer les performances des services de stockage avec des applications de Big Data, ou d’analytique au sens large, Cloud Mercato a cette fois testé la lecture successive de trois fichiers de 5 Go. Google GCP, loin devant tout le monde, atteint 2,19 Go/s. Hopla.cloud, le numéro 2, est loin derrière avec seulement 386,26 Mo/s. Le numéro 3, l’américain DigitalOcean, tombe à 296,18 Mo/s. Le pire score dans ce classement est celui d’IBM Cloud, qui atteint un tout petit débit de 58,80 Mo/s. Mais il n’est pas le seul grand fournisseur dans le peloton de queue : Oracle Cloud atteint 74,03 Mo/s, Azure est à 90,26 Mo/s…

« Les excellentes performances de Google GCP s’expliquent ici par le design de leur infrastructure de stockage objet. Contrairement à ce que l’on pourrait croire, ils utilisent ici des disques durs magnétiques très bon marché, bien moins performants que les SSD d’Hopla.cloud ou de DigitalOcean. En revanche, ils maximisent les accès parallèles entre eux. Chez Google GCP, chaque donnée est fractionnée au maximum, sur un très grand nombre de disques, de sorte qu’ils sont très nombreux à répondre lors des requêtes depuis les applications », détaille le fondateur de Cloud Mercato.

Les résultats de ce palmarès mettent surtout à l’honneur les offres françaises. Car, outre Hopla.cloud, l’hébergeur parisien BSO Network s’en tire également avec un score tout à fait honorable de 226,82 Go/s. « En l’occurrence, le stockage objet de BSO Networks est justement bâti sur le système OpenIO et il donne donc une idée de ce que sera bientôt le stockage objet d’OVHcloud », indique Anthony Monthe.

Mais, là aussi, il émet des réserves : « quand on parle d’analytique, évaluer les performances du stockage ne suffit pas. Il faut aussi prendre en compte le coût du calcul. Or, chez les petits acteurs, il n’y a pas de mystère : les applications analytiques seront forcément déployées dans des machines virtuelles et leur coût sera donc celui de ces machines virtuelles. Les grands acteurs comme AWS (95,36 Go/s), Azure, IBM ou Oracle, en revanche, proposent des services analytiques prêts à l’emploi qui sont bien moins chers que des machines virtuelles. »

En définitive, selon lui, c’est peut-être dans ce domaine que s’opposent le plus, d’un côté, le désir de souveraineté (mettre ses données stratégiques chez des hébergeurs français) et, de l’autre, les besoins économiques (payer l’analyse moins cher grâce aux services prêts à l’emploi de grands fournisseurs… américains).

Applications en ligne : aucun cloud ne sait bien gérer les deux catégories de fichiers

Pour évaluer les services de stockage dans le cadre des applications en ligne, Cloud Mercato a mené deux séries de tests : l’une qui télécharge des séries de cinq fichiers fonctionnels de moins de 512 Ko et l’autre qui demande à ouvrir des séries de 5 contenus de plus de 2 Mo. Et les résultats sont… totalement hétéroclites.

« Le cas le plus intéressant ici est celui de DigitalOcean. Il permet d’ouvrir les contenus à la vitesse de 274 Mo/s, ce qui est de loin le record, et les petits fichiers fonctionnels à la vitesse de 1,31 Go/s. Cela peut paraître excellent, sauf que, dans le second cas, il y a 837,82 Mo/s d’erreurs ! En somme, quand un internaute ouvre un site web hébergé chez DigitalOcean, il va lui manquer les deux tiers des polices, des visuels et des scripts ! C’est une catastrophe », lance Anthony Monthe. Et le constat est quasiment le même chez l’étoile montante Linode : près de la moitié des 295,46 Mo/s téléchargés par seconde sont des erreurs.

Ainsi, au palmarès des fichiers fonctionnels, les vrais meilleurs élèves sont T-Systems (972 Mo/s), IBM Cloud (875,32 Mo/s) et AWS (822,62 Mo/s). Azure, Google GCP et même le petit champion Hopla.cloud font plutôt parti des mauvais élèves, avec environ 340 Mo/s.

Le palmarès des contenus n’a rien à voir. Derrière DigitalOcean (qui répond encore des erreurs, mais seulement 0,33 Mo/s), on trouve T-Systems avec 176,55 Mo/s, talonné par Google GCP avec 169,32 Mo/s. AWS se maintient non loin avec 125,99 Mo/s, tandis qu’IBM Cloud tombe à 62,87 Mo/s.

« La disparité entre les deux types de fichiers est normale, car d’un point de vue fonctionnel, un système de stockage objet est configuré selon la taille des fichiers qu’il doit héberger. Si cette taille est trop petite, le système va passer son temps à aller chercher une multitude de morceaux pour rassembler le fichier et, dans ce cas, il vaut mieux avoir, comme Google, énormément de disques montés en parallèle. Si la taille est trop importante, le système va rallonger les petits fichiers avec du contenu inutile qu’il va perdre beaucoup de temps à ajouter ou à extraire », explique notre témoin.

« À partir d’une certaine taille, la bonne pratique consiste sans doute à héberger ses documents sur un cloud et ses fichiers fonctionnels sur un autre pour obtenir les meilleures performances. »
Anthony MontheFondateur, Cloud Mercato

Est-ce à dire qu’aucun fournisseur de cloud n’est en mesure d’héberger efficacement des applications web qui reposent sur une grande disparité de fichiers ? « Peut-être. Mais à partir d’une certaine taille, la bonne pratique consiste sans doute à héberger ses documents sur un cloud et ses fichiers fonctionnels sur un autre pour obtenir les meilleures performances », répond Anthony Monthe.

« Le point le plus important pour les applications web reste qu’elles soient rapides pour les utilisateurs, quel que soit l’endroit où ils se trouvent. Cela signifie souvent passer par un CDN, c’est-à-dire louer un cache dans le datacenter le plus proche des utilisateurs pour y stocker le front-end (l’interface de l’application) et les données les plus courantes. Dans une telle configuration, avoir les fichiers fonctionnels stockés chez T-Systems, par exemple, et les documents hébergés chez DigitalOcean, n’est plus un problème. »

Il est à noter que Cloud Mercato propose un autre outil qui permet à un internaute de mesurer sa vitesse d’accès à tous les services en ligne de stockage objet.

L’importance de l’infrastructure sous-jacente

Cloud Mercato a mené un dernier test, celui du cURL. « La commande cURL – qui sert à télécharger directement des contenus en entrant leur URL – nous a servi à mener des tests techniques qui n’avaient d’autre but que de mesurer combien l’infrastructure sous-jacente était efficace pour du stockage objet. »

Ces tests-là donnent trois mesures qui correspondent au temps que met l’infrastructure cible pour traiter dans les paquets les informations de DNS (où se trouve la cible), de TCP (routage réseau entre les nœuds du cluster de stockage), de SSL (chiffrement/déchiffrement), ainsi qu’une quatrième et une cinquième mesure qui correspondent à la latence du réseau.

« Chez tout le monde, l’étape qui prend le plus de temps est, sans surprise, celle du décodage SSL. Il est probable que cette étape influence le plus à terme le choix des infrastructures, car OpenIO a récemment démontré qu’il était possible de diviser son temps d’exécution par deux ou par trois en utilisant simplement des nœuds de stockage AMD plutôt qu’Intel. La raison serait que le circuit sollicité pour ce décodage est sollicité par tous les cœurs en même temps dans un processeur Intel Xeon, alors qu’il y a un tel circuit pour chaque cœur dans un processeur AMD Epyc », conclut Anthony Monthe.

Pour approfondir sur Stockage en Cloud

Close