zentilia - Fotolia

Cloud hybride : les solutions pour mettre AWS, Azure et GCP sur site

Les trois géants du cloud public proposent des matériels pour déporter leurs services dans les datacenters des entreprises. Cet article fait le point sur les options possibles et leurs cas d’usage.

Cet article est extrait d'un de nos magazines. Téléchargez gratuitement ce numéro de : STORAGE: Storage 25 : Les fournisseurs sauvés de la crise grâce au cloud hybride

De nombreuses entreprises sont séduites par les avantages du cloud public, mais plusieurs contraintes, comme la bande passante, les exigences réglementaires ou encore les problèmes de latence, les empêchent d’y passer pleinement.

Pour répondre aux besoins des entreprises qui ne sont pas en mesure d’héberger toutes leurs charges de travail en cloud, Amazon, Microsoft et Google ont développé des solutions dites de cloud hybride, qui poussent leurs services sur des matériels installés sur site. Amener le cloud public dans les locaux, présente l’intérêt de mieux choisir quelles charges de travail exécuter en cloud et lesquelles conserver dans le datacenter.

Dans cet article, nous faisons le point sur les infrastructures sur site qu’AWS, Microsoft et Google proposent pour amener leur cloud public directement chez leurs clients.

Google Anthos

Google Anthos est un environnement hybride conçu pour assurer la cohérence entre des containers exécutés en cloud et d’autres, exécutés sur site. Lancé en avril 2019, il repose en local sur des infrastructures hyperconvergées chez Cisco, Dell EMC et NetApp. Celles-ci sont préconfigurées avec une suite logicielle autour de l’orchestrateur Kubernetes.

En ligne comme sur site, Anthos revient plus exactement à des clusters de conteneurs exécutés par le service Google Kubernetes Engine (GKE). Les utilisateurs accèdent à ces clusters en ligne via le service GKE de GCP (Google Cloud Platform) et, dans leurs centres de données, via le logiciel GKE on-prem.

Anthos peut accessoirement administrer, sur site, tout serveur qui supporte Kubernetes et, en ligne, via la fonctionnalité « multi-cloud », tous les containers Kubernetes sur AWS, sur Microsoft Azure, ou sur n’importe quel autre cloud public ou privé qui exécute des containers via Kubernetes. L’argument évoqué par Google est de permettre aux utilisateurs de bénéficier des avantages d’un déploiement en cloud, sans pour autant s’enfermer dans une offre en particulier.

Un élément central de cette offre est la fonction Anthos Migrate, qui automatise la migration des applications virtualisées historiques vers des conteneurs Kubernetes. Anthos est également fourni avec un ensemble d’outils d’administration, de surveillance, de sécurité et d’authentification. Tous ces outils fonctionnent aussi bien sur site qu’en cloud. Citons Anthos Config Management pour l’administration et la gestion des clusters, Istio pour le maillage des différentes instances de GKE, Strackdriver pour le monitoring, ou encore Cloud Run pour automatiser les lancements de containers selon des règles.

AWS Outposts

Outposts est la déclinaison sur site de l’infrastructure cloud d’AWS. Les machines Outpost (AWS parle des « Outposts ») sont des racks dédiés qui abritent des serveurs de calcul et de stockage conçus par AWS lui-même. Ils exécutent des services et des outils également conçus par AWS. AWS fournit, installe, entretient et met à jour ces racks.

Chaque baie Outpost est directement connectée à l’instance régionale d’AWS la plus proche et sert d’ailleurs de passerelle vers tous les outils et tous les services disponibles dans cette région. L’intérêt est surtout d’utiliser les services du cloud public en local, avec la latence minimale du datacenter. Les services exécutés localement par une baie Outpost comprennent actuellement des machines virtuelles EC2, des disques virtuels EBS, la base de données RDS et l’environnement AWS CloudFormation, qui permet de programmer l’allocation de ressources aux applications. AWS prévoit d’étendre les services pris en charge au fil du temps.

Il existe deux versions d’AWS Outposts : AWS native Outposts et VMware Cloud on AWS Outposts. La version native, qui a été lancée à l’occasion d’AWS re:Invent 2019, est entièrement gérée par AWS et se pilote depuis la Management Console du fournisseur. La variante VMware Cloud, qui est encore en version bêta, exécute l’environnement Software-Defined-Datacenter (SDDC) de VMware et se pilote depuis les consoles et les API de VMware.

Contrairement à Anthos, AWS Outposts n’est pas une offre multicloud. La plate-forme de cloud hybride d’AWS est une offre à fournisseur unique, qui ne prend pas en charge les traitements effectués sur d’autres clouds.

Microsoft Azure Stack

Microsoft a lancé Azure Stack en 2017 pour permettre aux utilisateurs d’héberger les services Azure à demeure. L’offre s’est depuis beaucoup développée. Elle se décline aujourd’hui en trois gammes, plus une quatrième encore en beta. Chacune d’elles est conçue pour adapter les capacités d’Azure à différents besoins et environnements d’infrastructure :

- Azure Stack Hub. Cette version locale d’Azure est installée par un intégrateur sur un cluster de 4 à 16 nœuds serveur. L’administrateur choisit les services d’Azure qui seront disponibles dessus. Azure Stack Hub est conçu pour que les équipes de développement exécutent localement leurs applications en machines virtuelles, en containers, avec des bases de données SQL Server ou MySQL, puis qu’elles exportent éventuellement leurs travaux finalisés sur Azure.

- Azure Stack HCI. Cette version est livrée sur une infrastructure hyperconvergée (HCI) qui fonctionne sous Windows Server 2019. Elle fournit puissance de calcul, capacité de stockage et connectivité réseau en mode Software-Defined, pour exécuter sur site des machines virtuelles et, si les ressources viennent à manquer, les exporter directement vers le cloud public Azure. Azure Stack HCI repose généralement sur du matériel Dell EMC ou Lenovo.

- Azure Stack Edge. Cette version est livrée sur une appliance autonome, généralement destinée aux succursales ou sur un site de production où des données sont créées. Microsoft installe l’appliance, l’administre et la met à jour lui-même. L’appliance exécute des machines virtuelles, des conteneurs et des moteurs de Machine Learning. Ses fonctions de virtualisation du calcul et du stockage sont compatibles avec celles du cloud public Azure, de sorte qu’il est possible d’importer dans l’appliance des environnements d’abord testés en cloud. L’offre comprend une connexion réseau directe vers Azure.

- Azure Arc. Cette dernière offre est encore au stade de la preview. Arc est un outil pour installer des services Azure sur des infrastructures locales ou en ligne, de sorte qu’elles puissent exporter leurs traitements vers Azure. Tout l’intérêt d’Arc est d’étendre l’aspect hybride à des infrastructures qui n’ont à la base rien à voir avec Azure et même d’apporter une dimension multicloud à Azure. En l’état, Arc fonctionne avec les fermes de serveurs Windows ou Linux, avec les clusters des containers Kubernetes, ainsi qu’avec les bases de données SQL Server et PostgreSQL. Arc peut être vu comme une extension d’Azure Resource Manager, l’environnement qui sert à gérer le déploiement, l’administration et la gouvernance des ressources Azure.

Pour approfondir sur Continuité d’activité, Sécurité physique

Close