Informatique hybride : réussir son mix cloud et datacenter

Pour trouver le bon équilibre et gérer les actifs informatiques dans des environnements divers, les entreprises disposent de nombreux outils et technologies qui leur facilitent la tâche.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : STORAGE: Storage 29 – Informatique hybride : réussir son mix cloud et datacenter

Si l’infrastructure des datacenters d’entreprise a peu Ă©voluĂ© depuis 10 ou 20 ans, il n’en va pas de mĂŞme des usages. Les services cloud sont venus bousculer les attentes : facilitĂ© du provisioning et de la gestion des ressources et paiement Ă  la consommation sont dĂ©sormais de mise. DotĂ©s des bons outils, les datacenters devraient se montrer plus agiles et plus fluides Ă  l’avenir, les entreprises visant Ă  Ă©quilibrer l’usage de leur infrastructure interne et des ressources cloud Ă  des fins d’optimisation.

Plus flexibles, les nouveaux outils d’administration rendent les ressources en cloud et l’informatique sur site pour partie interchangeables. « L’informatique sur site a Ă©voluĂ© aussi vite que les services cloud Â», constate Tony Lock, analyste chez Freeform Dynamics. Autrefois plutĂ´t statique, elle disposait d’une infrastructure dĂ©diĂ©e Ă  des applications spĂ©cialisĂ©es.

« L’IT sur site s’est transformĂ©e en 10 ans : il est aujourd’hui bien plus facile d’étendre la plupart des plateformes informatiques. Â»
Tony LockAnalyste, Freeform Dynamics

« Elle s’est transformĂ©e en 10 ans : il est aujourd’hui bien plus facile d’étendre la plupart des plateformes informatiques. On n’a plus besoin de tout interrompre le temps d’un week-end pour installer physiquement les nouveaux matĂ©riels. Il suffit d’apporter ces nouvelles machines dans le datacenter et de les brancher pour que ça fonctionne. Â»

Autre changement observĂ© dans le datacenter : la virtualisation. Les utilisateurs dĂ©placent facilement les applications d’un serveur physique Ă  l’autre, ce qui renforce grandement la portabilitĂ©, d’autant plus avec l’extension des rĂ©seaux virtuels ou SDN (Software-Defined Network) constatĂ©e depuis ces cinq Ă  dix dernières annĂ©es, prĂ©cise Tony Lock.

L’évolution rapide des outils d’automatisation qui gèrent les ressources sur site et dans le cloud vient concrétiser l’idée de regrouper en un même pool les deux types de ressources.

En juin, HashiCorp a annoncĂ© la version 1.0 de Terraform, tĂ©moin de la maturitĂ© et de la stabilitĂ© suffisantes de sa plateforme de gestion de l’infrastructure pour une utilisation en production, mĂŞme si de nombreux clients l’avaient dĂ©jĂ  dĂ©ployĂ©e sans attendre la dernière mouture.

Avec cet outil d’infrastructure programmable ou IaC (Infrastructure as Code), l’utilisateur va construire son infrastructure à l’aide de fichiers de configuration déclarative qui décrivent l’état cible de l’infrastructure. Il s’agit de consignes autorisant le provisionnement effectif et réitéré de l’infrastructure par Terraform pour une application ou un service donné.

On peut aussi automatiser les changements complexes à apporter à l’infrastructure en minimisant les interactions humaines, par simple mise à jour des fichiers de configuration. Le grand atout de Terraform est qu’outre l’infrastructure interne, elle peut aussi gérer les ressources éparpillées sur plusieurs fournisseurs cloud, notamment AWS, Azure et Google Cloud Platform.

Comme les configurations de Terraform ne sont pas liées à un cloud particulier, elles définissent le même environnement applicatif partout. Vous pouvez ainsi déplacer ou copier une application très facilement.

« L’idĂ©e d’une infrastructure programmable ne manque pas d’attrait, estime Tony Lock. Elle Ă©volue, mais elle a encore du chemin Ă  faire pour arriver Ă  maturitĂ©. Elle s’inscrit dans le cadre plus global de l’automatisation. L’IT s’automatise de plus en plus. LibĂ©rĂ©es de tâches rĂ©pĂ©titives, routinières et sans intĂ©rĂŞt dĂ©sormais bien prises en charge par les logiciels, les Ă©quipes informatiques peuvent se consacrer Ă  d’autres aspects Ă  plus grande valeur ajoutĂ©e pour l’entreprise. Â»

Stockage cloud en mode natif

Le stockage gagne de plus en plus en flexibilité, du moins pour ce qui concerne les systèmes de stockage virtualisés (SDS) conçus pour fonctionner sur un cluster de serveurs et non sur du matériel propriétaire. Par le passé, les applications étaient souvent liées à des réseaux de stockage fixe.

Le stockage SDS se distingue par sa facilité d’extension. Il suffit généralement d’ajouter des nœuds au cluster de stockage.

Dans la mesure où ce type de système est programmable, il est aisé de le provisionner et de le gérer via des API ou à l’aide d’outils d’infrastructure comme Terraform.

Le degré de sophistication et de flexibilité du stockage SDS apparaît clairement dans la Limitless Data Platform de WekaIO, déployée dans de nombreux projets de supercalculateurs. La plateforme WekaIO unifie l’espace de noms présenté aux applications, et elle se déploie sur des serveurs de stockage dédiés ou dans le cloud.

En cas de nécessité, les organisations peuvent alors transférer les données de leur cluster sur site vers le cloud public et y provisionner un cluster Weka. Toute application à base de fichiers peut s’exécuter dans le cloud sans autre modification, selon WekaIO.

Une des fonctions phares du système WekaIO est la capture d’un instantanĂ© de l’environnement dans son ensemble, y compris toutes les donnĂ©es et mĂ©tadonnĂ©es associĂ©es au système de fichiers, transfĂ©rable ensuite vers un magasin d’objets comme le stockage en cloud Amazon S3.

L’entreprise peut ainsi créer et utiliser un système de stockage pour un projet particulier, puis en capturer un instantané qu’elle stockera dans le cloud en fin de projet pour libérer l’infrastructure hébergeuse à d’autres fins. En cas de reprise du projet, il suffit de recréer à l’identique le système de fichiers à partir de l’instantané, explique WekaIO.

« Les tarifs extrĂŞmement bas de certaines plateformes cloud pour les seuls coĂ»ts de stockage sont en rĂ©alitĂ© souvent contrebalancĂ©s par des frais de sortie assez Ă©levĂ©s. Â»
Tony LockAnalyste, Freeform Dynamics

Mais ce scĂ©nario prĂ©sente un inconvĂ©nient majeur : le coĂ»t Ă©ventuel, non du stockage des donnĂ©es en cloud, mais de l’accès. En effet, les grands fournisseurs de cloud comme AWS facturent des frais lors de la rĂ©cupĂ©ration des donnĂ©es.

Selon T. Lock, « les tarifs extrĂŞmement bas de certaines plateformes cloud pour les seuls coĂ»ts de stockage sont en rĂ©alitĂ© souvent contrebalancĂ©s par des frais de sortie assez Ă©levĂ©s. Extraire les donnĂ©es pour les examiner et les utiliser va vous coĂ»ter très cher. Les donnĂ©es stockĂ©es ne vous coĂ»tent pas grand-chose, mais les examiner et les utiliser va très vite se rĂ©vĂ©ler onĂ©reux. Certaines offres incluent une archive active sans frais de sortie, mais Ă  un tarif supĂ©rieur. Â»

Le fournisseur de stockage en cloud Wasabi Technologies s’est affranchi de cette convention et propose différents modes de calcul, notamment un forfait mensuel par téraoctet.

Gestion intégrale

Si l’infrastructure informatique continue de se fluidifier, de s’assouplir et de s’adapter toujours davantage, les entreprises n’auront bientôt plus besoin d’étendre la capacité de leurs datacenters. Avec les bons outils de gestion et d’automatisation, elles sauront gérer efficacement leur infrastructure en dynamique, notamment en réaffectant leur informatique sur site à d’autres fins et en recourant aux services cloud pour étendre leurs ressources.

Afin d’arriver Ă  ce stade, un point reste Ă  amĂ©liorer : la capacitĂ© Ă  repĂ©rer l’emplacement d’un problème en cas de ralentissement d’une application ou de panne, tâche parfois ardue dans un système distribuĂ© complexe. Les organisations dotĂ©es d’une architecture par microservices ne seront pas surprises. De nouvelles techniques Ă  base d’apprentissage automatique pourraient s’avĂ©rer utiles, estime T. Lock.

« Si l’on peut tout dĂ©placer sans arrĂŞt, comment conserver une bonne gouvernance des donnĂ©es et n’exĂ©cuter que ce qu’il faut au bon endroit avec la bonne sĂ©curitĂ© ? Â»
Tony LockAnalyste, Freeform Dynamics

Il poursuit : « la surveillance s’est beaucoup amĂ©liorĂ©e, et la question est maintenant de savoir comment faire ressortir l’important dans la tĂ©lĂ©mĂ©trie. C’est lĂ  que le machine learning commence Ă  porter ses fruits. L’analyse des causes profondes est un des grands dĂ©fis de l’IT que le machine learning vient grandement simplifier. Â»

Une autre difficultĂ© porte sur la gouvernance des donnĂ©es : comment s’assurer que les politiques de gouvernance et de sĂ©curitĂ© associĂ©es aux donnĂ©es suivent les dĂ©placements rĂ©pĂ©tĂ©s des workloads et restent en vigueur ? « Si l’on peut tout dĂ©placer sans arrĂŞt, comment conserver une bonne gouvernance des donnĂ©es et n’exĂ©cuter que ce qu’il faut au bon endroit avec la bonne sĂ©curitĂ© ? Â», se demande T. Lock.

Des outils existent, notamment le projet open source Apache Atlas, présenté comme une solution unique pour toutes les étapes de la gouvernance des données et de la gestion des métadonnées. Atlas est conçu au départ pour les écosystèmes de données Hadoop, mais s’intègre à d’autres environnements. Pour les entreprises, il semblerait que le rêve de pouvoir mixer les ressources sur site et en cloud, puis les déposer et les récupérer sans restriction devienne enfin réalité.

Pour approfondir sur Administration de systèmes

Close