peshkova - Fotolia

Stockage en cloud : les caractéristiques qu’il faut vérifier

Cet article passe en revue les principales caractéristiques du stockage en cloud, notamment la disponibilité, la bande passante, les IOPS, la capacité, la hiérarchisation, les frais d’export et la sécurité.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : STORAGE: Storage 34 – Les initiatives européennes pour stocker les données

Le stockage en cloud est désormais plus polyvalent et jouit enfin de très bonnes performances. Revers de la médaille, le nombre de caractéristiques possibles s’est démultiplié et complique le choix que doivent faire les entreprises pour satisfaire leur cas d’usage. Apporter une attention particulière au meilleur dosage entre performances, compatibilité et versatilité est essentiel pour tirer le meilleur parti du cloud. Afin de s’y retrouver, cet article présente les caractéristiques clés qui détermineront le choix d’une offre ou d’une autre.

Quelles familles de solutions existent ? 

Le choix de l’architecture de stockage est généralement dicté par sa compatibilité avec une certaine application ou un certain cas d’usage. De base, les hébergeurs de cloud proposent désormais les trois modes d’enregistrement des données : par bloc, en fichiers ou sous la forme d’objets.

De base, les hébergeurs de cloud proposent désormais les trois modes d’enregistrement des données : par bloc, en fichiers ou sous la forme d’objets.

Le coût reste également un élément clé. Pour certaines applications, c’est le facteur le plus important lorsqu’il s’agit de stockage en cloud. D’autant que le coût et les performances sont intimement liés. Par exemple, l’archivage de données n’a pas besoin de performances et correspond généralement aux offres dont le rapport coût/capacité est le plus intéressant. Il s’agit généralement de stockage objet, mais attention : le mode objet n’est pas systématiquement un stockage peu performant et peu cher.

Déchiffrer les structures de coûts des services en cloud est un vrai travail, car il faut tenir compte de la bande passante, de la capacité possible, des frais supplémentaires lors de l’export des données, de la localisation et même des appels effectués via des API par d’autres applications. Et comme les fournisseurs de services en cloud proposent désormais plusieurs niveaux de performance, il est nécessaire de calculer les seuils au-delà desquels une offre devient moins avantageuse qu’une autre.

Quels sont les principaux critères ?

La disponibilité. Les entreprises qui stockent des données dans le cloud doivent connaître la disponibilité offerte par le fournisseur de services, afin de pouvoir la comparer avec les systèmes sur site et les besoins des métiers. La disponibilité est exprimée en pourcentages de temps (généralement une année) où le service est accessible. Ce pourcentage est le SLA (engagement sur le niveau de service). Systématiquement inférieur à 100 %, il indique surtout que le service en question connaît plus ou moins de temps d’arrêt durant une année, que ce soit parce qu’il est sollicité au-delà des ressources disponibles, ou parce qu’il nécessite une maintenance.

En général, un SLA dépasse les 99 %. On évalue le degré de disponibilité en comptant le nombre de 9 avant et après la virgule.

Le stockage S3 Standard d’Amazon offre un SLA de 99,99 %, des déclinaisons de S3 se contentent de 99,9 % et la classe de stockage S3 One Zone-IA vise 99,5 %. Azure annonce 99,99 % pour ses fichiers Azure NetApp, via un stockage localement redondant.

Google Cloud va de 99,9 % pour ses produits Coldline et Archive à 99,99 % pour le stockage standard, voire mieux pour les configurations multi- et bi-région.

Toutefois, les mesures réelles sont plus compliquées que ne le suggèrent les SLA et doivent être étudiées attentivement. Par exemple, AWS revendique un taux de 99,999999999 % pour certaines configurations, mais il est pertinent de se demander ce que veut dire un taux aussi précis.

Bande passante et IOPS. La bande passante, les IOPS et la latence ont tous un impact sur les performances des applications utilisant le stockage en cloud. La bande passante dépend du fournisseur de services en cloud et de la capacité des liaisons que les entreprises utilisent pour l’atteindre.

En mode objet, GCP cite une capacité de 5 000 lectures par seconde, avec une limite de 50 Gbit/s par projet au sein d’une région. Mais GCP peut passer à 1 Tbit/s si nécessaire. Amazon revendique 50 Gbit/s entre EC2 et S3 dans la même région. Sur Azure, un seul Blob prend en charge 500 requêtes par seconde, signifiant qu’il faut multiplier les Blobs pour aller au-delà.

En mode bloc, AWS propose des options de 16 000 à 64 000 IOPS par volume EBS. Azure Managed Disk atteint jusqu’à 160 000 IOPS et Azure Files jusqu’à 100 000 IOPS. GCP parle de disque persistant qui grimpe jusqu’à 100 000 IOPS en lecture, et de SSD local qui supporte 2 400 000 IOPS en lecture. Sur toutes les plateformes, l’écriture est plus lente.

Comme les chiffres le suggèrent, et malgré l’importance de la bande passante et des IOPS, il est difficile de comparer les fournisseurs de cloud. Les entreprises doivent examiner le détail de leurs exigences applicatives pour trouver la meilleure solution.

Capacité et hiérarchisation. Sur le papier, la capacité du stockage en cloud est infinie. En pratique, il existe des limites techniques, pratiques et financières. Aussi, les fournisseurs de services proposent des niveaux de stockage qui permettent de faire correspondre capacité, performances et coût.

AWS peut stocker des données sous la forme d’objets dans un volume S3 avec pas moins de sept niveaux de service, du stockage standard au stockage d’archives dites profondes. Reste à savoir quelles données devraient aller où, sachant que moins le service est cher, plus il faut du temps pour les rouvrir. La hiérarchisation intelligente peut faire une partie du travail, en déplaçant automatiquement les données d’un niveau à l’autre, en fonction de leur utilisation.

Les différentes limites et les taux de disponibilité peuvent varier d’une région à l’autre.

Azure propose sur blobs les niveaux de stockage hot, cool et archive. Le niveau « hot » correspond au coût de stockage le plus élevé, mais aux coûts d’accès les plus bas, tandis que les niveaux « cool » et « archive » facturent moins pour le stockage et plus pour les accès.

Google propose de la même manière quatre classes de stockage : standard, nearline, coldline et archive.

Il est intéressant de noter que, outre les différences de coût et de latence, il existe une durée de stockage minimum selon les niveaux. L’offre archive de Microsoft est de 180 jours minimum, celle de Google est de 365 jours, et S3 varie de 90 à 180 jours.

En ce qui concerne la capacité, il est également utile de regarder les détails. S3 n’a pas de taille maximale par volume (« bucket », ici) ni de limite au nombre d’objets dans ce volume, mais la taille maximale du volume est de 5 To. Google a quant à lui fixé une limite de 5 To par objet. Azure indique une limite maximale de 5 Po par compte ayant accès à un service de stockage objet.

Notez cependant que les différentes limites et les taux de disponibilité peuvent varier d’une région à l’autre. Une information à prendre en compte lorsqu’une entreprise souscrit à un même service sur plusieurs régions.

Récupération et autres frais (cachés). Les reproches les plus fréquents des entreprises portent sur les frais inattendus ou cachés.

Il est difficile de calculer le coût réel de tout service basé sur la consommation, car cela impliquerait d’anticiper la demande, puis de s’efforcer de rester aligné sur cette anticipation. Dans certains cas, les avantages apportés par le cloud – facilité, efficacité… – augmenteront la demande en cours de route. L’archivage en est un bon exemple. Il faut ensuite se demander si les économies réalisées sur les systèmes sur site se matérialisent réellement lors d’une migration vers le cloud.

Pire, les fournisseurs de services en cloud n’ont pas toujours correctement œuvré à rendre leurs prix transparents. Les coûts d’export des données, c’est-à-dire lorsque l’on souhaite les récupérer en dehors du cloud, ne serait-ce que pour les consulter ou les restaurer sur site, sont une source fréquente de plaintes. Le stockage dans le cloud peut être très bon marché, et parfois même gratuit, car les fournisseurs prélèvent plutôt des frais pour déplacer les données en dehors de leurs systèmes. Ces coûts sont souvent difficiles à prévoir et surprennent systématiquement les clients.

Les problèmes de coûts sont le plus souvent liés au choix de la mauvaise architecture de stockage.

Néanmoins, les fournisseurs de services en cloud gagnent petit à petit en transparence sur ce sujet. Ils fournissent même des conseils sur la manière de structurer le stockage afin de minimiser de tels surcoûts.

À l’évidence, les problèmes de coûts sont le plus souvent liés au choix de la mauvaise architecture de stockage. L’exemple classique est celui de données nécessitant un accès fréquent, mais qui sont stockées sur des services peu chers adaptés à l’archivage de longue durée. Ou, à l’inverse, le fait de placer des données peu utilisées sur des services de stockage vendus comme très performants.

Les fournisseurs de services atténuent aujourd’hui cet écueil grâce à la hiérarchisation automatique. Les DSI ont plutôt intérêt à faire confiance à cette fonction, facturée en option. Car, à moins de disposer d’une équipe stockage hautement qualifiée et qui a du temps, il est probable que la fonction automatique soit moins coûteuse que le processus manuel.

Sécurité. Les entreprises auront toujours leurs propres exigences en matière de sécurité et de conformité des données, notamment dans des domaines tels que les services publics, la santé, la finance et la défense. Pour les acheteurs de services en cloud, il s’agit de faire correspondre l’offre d’un fournisseur de services en cloud aux exigences réglementaires de l’entreprise. Là encore, il s’agit d’un domaine dans lequel les fournisseurs de services en cloud ont fait de réels progrès au cours des dernières années.

Microsoft, par exemple, a récemment publié le référentiel de sécurité Azure pour le stockage, qui fait lui-même partie du référentiel de sécurité en cloud auquel l’éditeur se plie pour ses propres activités.

AWS dispose de normes et de bonnes pratiques similaires. Google a également des directives de sécurité complètes. Il devient également possible de prendre en compte le traitement en cloud de données spécialisées, comme les informations relatives aux paiements PCI-DSS, les données de santé personnelles ou même les fichiers classifiés.

La bonne nouvelle pour les acheteurs de services en cloud est que les niveaux de sécurité des trois grands hyperscalers américains sont équivalents et souvent supérieurs à ceux du stockage de données sur site. Sauf dans un cas : la souveraineté.

Pour approfondir sur Stockage en Cloud

Close