Informatique hybride : réussir son mix cloud et datacenter

Pour trouver le bon équilibre et gérer les actifs informatiques dans des environnements divers, les entreprises disposent de nombreux outils et technologies qui leur facilitent la tâche.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : STORAGE: Storage 29 – Informatique hybride : réussir son mix cloud et datacenter

Si l’infrastructure des datacenters d’entreprise a peu évolué depuis 10 ou 20 ans, il n’en va pas de même des usages. Les services cloud sont venus bousculer les attentes : facilité du provisioning et de la gestion des ressources et paiement à la consommation sont désormais de mise. Dotés des bons outils, les datacenters devraient se montrer plus agiles et plus fluides à l’avenir, les entreprises visant à équilibrer l’usage de leur infrastructure interne et des ressources cloud à des fins d’optimisation.

Plus flexibles, les nouveaux outils d’administration rendent les ressources en cloud et l’informatique sur site pour partie interchangeables. « L’informatique sur site a évolué aussi vite que les services cloud », constate Tony Lock, analyste chez Freeform Dynamics. Autrefois plutôt statique, elle disposait d’une infrastructure dédiée à des applications spécialisées.

« L’IT sur site s’est transformée en 10 ans : il est aujourd’hui bien plus facile d’étendre la plupart des plateformes informatiques. »
Tony LockAnalyste, Freeform Dynamics

« Elle s’est transformée en 10 ans : il est aujourd’hui bien plus facile d’étendre la plupart des plateformes informatiques. On n’a plus besoin de tout interrompre le temps d’un week-end pour installer physiquement les nouveaux matériels. Il suffit d’apporter ces nouvelles machines dans le datacenter et de les brancher pour que ça fonctionne. »

Autre changement observé dans le datacenter : la virtualisation. Les utilisateurs déplacent facilement les applications d’un serveur physique à l’autre, ce qui renforce grandement la portabilité, d’autant plus avec l’extension des réseaux virtuels ou SDN (Software-Defined Network) constatée depuis ces cinq à dix dernières années, précise Tony Lock.

L’évolution rapide des outils d’automatisation qui gèrent les ressources sur site et dans le cloud vient concrétiser l’idée de regrouper en un même pool les deux types de ressources.

En juin, HashiCorp a annoncé la version 1.0 de Terraform, témoin de la maturité et de la stabilité suffisantes de sa plateforme de gestion de l’infrastructure pour une utilisation en production, même si de nombreux clients l’avaient déjà déployée sans attendre la dernière mouture.

Avec cet outil d’infrastructure programmable ou IaC (Infrastructure as Code), l’utilisateur va construire son infrastructure à l’aide de fichiers de configuration déclarative qui décrivent l’état cible de l’infrastructure. Il s’agit de consignes autorisant le provisionnement effectif et réitéré de l’infrastructure par Terraform pour une application ou un service donné.

On peut aussi automatiser les changements complexes à apporter à l’infrastructure en minimisant les interactions humaines, par simple mise à jour des fichiers de configuration. Le grand atout de Terraform est qu’outre l’infrastructure interne, elle peut aussi gérer les ressources éparpillées sur plusieurs fournisseurs cloud, notamment AWS, Azure et Google Cloud Platform.

Comme les configurations de Terraform ne sont pas liées à un cloud particulier, elles définissent le même environnement applicatif partout. Vous pouvez ainsi déplacer ou copier une application très facilement.

« L’idée d’une infrastructure programmable ne manque pas d’attrait, estime Tony Lock. Elle évolue, mais elle a encore du chemin à faire pour arriver à maturité. Elle s’inscrit dans le cadre plus global de l’automatisation. L’IT s’automatise de plus en plus. Libérées de tâches répétitives, routinières et sans intérêt désormais bien prises en charge par les logiciels, les équipes informatiques peuvent se consacrer à d’autres aspects à plus grande valeur ajoutée pour l’entreprise. »

Stockage cloud en mode natif

Le stockage gagne de plus en plus en flexibilité, du moins pour ce qui concerne les systèmes de stockage virtualisés (SDS) conçus pour fonctionner sur un cluster de serveurs et non sur du matériel propriétaire. Par le passé, les applications étaient souvent liées à des réseaux de stockage fixe.

Le stockage SDS se distingue par sa facilité d’extension. Il suffit généralement d’ajouter des nœuds au cluster de stockage.

Dans la mesure où ce type de système est programmable, il est aisé de le provisionner et de le gérer via des API ou à l’aide d’outils d’infrastructure comme Terraform.

Le degré de sophistication et de flexibilité du stockage SDS apparaît clairement dans la Limitless Data Platform de WekaIO, déployée dans de nombreux projets de supercalculateurs. La plateforme WekaIO unifie l’espace de noms présenté aux applications, et elle se déploie sur des serveurs de stockage dédiés ou dans le cloud.

En cas de nécessité, les organisations peuvent alors transférer les données de leur cluster sur site vers le cloud public et y provisionner un cluster Weka. Toute application à base de fichiers peut s’exécuter dans le cloud sans autre modification, selon WekaIO.

Une des fonctions phares du système WekaIO est la capture d’un instantané de l’environnement dans son ensemble, y compris toutes les données et métadonnées associées au système de fichiers, transférable ensuite vers un magasin d’objets comme le stockage en cloud Amazon S3.

L’entreprise peut ainsi créer et utiliser un système de stockage pour un projet particulier, puis en capturer un instantané qu’elle stockera dans le cloud en fin de projet pour libérer l’infrastructure hébergeuse à d’autres fins. En cas de reprise du projet, il suffit de recréer à l’identique le système de fichiers à partir de l’instantané, explique WekaIO.

« Les tarifs extrêmement bas de certaines plateformes cloud pour les seuls coûts de stockage sont en réalité souvent contrebalancés par des frais de sortie assez élevés. »
Tony LockAnalyste, Freeform Dynamics

Mais ce scénario présente un inconvénient majeur : le coût éventuel, non du stockage des données en cloud, mais de l’accès. En effet, les grands fournisseurs de cloud comme AWS facturent des frais lors de la récupération des données.

Selon T. Lock, « les tarifs extrêmement bas de certaines plateformes cloud pour les seuls coûts de stockage sont en réalité souvent contrebalancés par des frais de sortie assez élevés. Extraire les données pour les examiner et les utiliser va vous coûter très cher. Les données stockées ne vous coûtent pas grand-chose, mais les examiner et les utiliser va très vite se révéler onéreux. Certaines offres incluent une archive active sans frais de sortie, mais à un tarif supérieur. »

Le fournisseur de stockage en cloud Wasabi Technologies s’est affranchi de cette convention et propose différents modes de calcul, notamment un forfait mensuel par téraoctet.

Gestion intégrale

Si l’infrastructure informatique continue de se fluidifier, de s’assouplir et de s’adapter toujours davantage, les entreprises n’auront bientôt plus besoin d’étendre la capacité de leurs datacenters. Avec les bons outils de gestion et d’automatisation, elles sauront gérer efficacement leur infrastructure en dynamique, notamment en réaffectant leur informatique sur site à d’autres fins et en recourant aux services cloud pour étendre leurs ressources.

Afin d’arriver à ce stade, un point reste à améliorer : la capacité à repérer l’emplacement d’un problème en cas de ralentissement d’une application ou de panne, tâche parfois ardue dans un système distribué complexe. Les organisations dotées d’une architecture par microservices ne seront pas surprises. De nouvelles techniques à base d’apprentissage automatique pourraient s’avérer utiles, estime T. Lock.

« Si l’on peut tout déplacer sans arrêt, comment conserver une bonne gouvernance des données et n’exécuter que ce qu’il faut au bon endroit avec la bonne sécurité ? »
Tony LockAnalyste, Freeform Dynamics

Il poursuit : « la surveillance s’est beaucoup améliorée, et la question est maintenant de savoir comment faire ressortir l’important dans la télémétrie. C’est là que le machine learning commence à porter ses fruits. L’analyse des causes profondes est un des grands défis de l’IT que le machine learning vient grandement simplifier. »

Une autre difficulté porte sur la gouvernance des données : comment s’assurer que les politiques de gouvernance et de sécurité associées aux données suivent les déplacements répétés des workloads et restent en vigueur ? « Si l’on peut tout déplacer sans arrêt, comment conserver une bonne gouvernance des données et n’exécuter que ce qu’il faut au bon endroit avec la bonne sécurité ? », se demande T. Lock.

Des outils existent, notamment le projet open source Apache Atlas, présenté comme une solution unique pour toutes les étapes de la gouvernance des données et de la gestion des métadonnées. Atlas est conçu au départ pour les écosystèmes de données Hadoop, mais s’intègre à d’autres environnements. Pour les entreprises, il semblerait que le rêve de pouvoir mixer les ressources sur site et en cloud, puis les déposer et les récupérer sans restriction devienne enfin réalité.

Pour approfondir sur Administration de systèmes

Close