Cet article fait partie de notre guide: VMWorld 2019 : comprendre comment VMware se transforme

VMworld Europe : VMware détaille sa prochaine offre Tanzu

Réunissant les plateformes PKS, Project Pacific et Tanzu Mission Control, elle abolira les différences techniques entre VMs, containers, datacenters et cloud. Elle évitera surtout aux entreprises de mettre en place plusieurs équipes d’informaticiens.

VMware veut sortir du giron de la simple virtualisation pour devenir une plateforme d’exécution applicative. À Barcelone, où vient de se tenir l’événement qui rassemblait tout son écosystème européen, l’éditeur a ainsi détaillé comment la prochaine génération de ses logiciels, appelée Tanzu, compte exécuter des applications de manière universelle – en VMs, en containers, voire directement sur des serveurs physiques. Mais aussi comment elle les rendra compatibles avec n’importe quel cloud. Et, in fine, comment elle devrait éviter aux entreprises de se retrouver avec des usines à gaz.

« Les entreprises développent six fois plus d’applications qu’il y a dix ans et elles ont désormais quantité de choix techniques à faire pour la mise en production : il y a des applications modernes en containers, des applications historiques ; il faut les déployer sur tel ou tel cloud public, ou sur site, etc. Notre mission est que la production fonctionne quoiqu’il arrive. Nous allons donc proposer une seule interface pour tout contrôler, avec une plateforme qui saura toute seule quel format déployer selon les typologies. En clair, vSphere devient un moteur d’exécution du code », a déclaré Anthony Cirot, le Directeur Général de VMware France, lors d’un point presse.

En l’occurrence, VMware considère que les applications que ses logiciels ont vocation à exécuter sont désormais majoritairement découpées en moteurs applicatifs – renommés ici des « big services » – et en portails utilisateurs – les microservices, donc – et que si les premiers s’exécuteront toujours depuis des machines virtuelles, les seconds gagnent à être virtualisés à l’aide de containers.

Pivotal PKS et Bitnami pour packager les applications

En pratique, le futur catalogue Tanzu doit remplir trois fonctions : Build, Run, Manage, selon la nomenclature décidée par l’éditeur. La partie Build, c’est-à-dire l’environnement qui permet aux développeurs de packager leurs codes, sera assurée par la plateforme PKS de Pivotal ; cette ancienne filiale de Dell EMC est en effet devenue en août dernier, par un simple jeu d’écriture, une filiale de VMware (VMware étant aussi une filiale de Dell EMC).

PKS sera complété d’un catalogue, appelé pour l’heure Projet Galeon, qui servira à activer des services applicatifs accessoires prêts à l’emploi, comme un Tomcat, un Wordpress, une base de données, etc. Project Galeon est basé sur Bitnami, un portail applicatif racheté en mai dernier par VMware. Bitnami ne servait jusque-là que d’interface pour indiquer quels containers mettre en production ; sa nouvelle incarnation prendra aussi en compte des machines virtuelles complètes, voire des serveurs physiques.

L’intérêt de Galeon est accessoirement de gérer automatiquement les numéros de version des ressources qu’il met à disposition, de sorte que les projets ne soient pas lancés avec des services obsolètes, ou non mis à jour. 

Project Pacific, le vSphere qui exécutera des containers plus rapidement que Linux

La partie Run – techniquement la plus importante – sera la plateforme qui exécute les containers et les machines virtuelles présentés par PKS et Project Galeaon. Elle sera incarnée par Project Pacific, c’est-à-dire la prochaine version de vSphere dans laquelle l’ordonnanceur de machines virtuelles sera remplacé par une version spéciale de Kubernetes. Ce Kubernetes-là sera capable d’orchestrer l’exécution d’applications en containers, en machines virtuelles et même sur des serveurs physiques (« bare metal »).

« La réelle évolution technique est que nous apportons à nos clients une solution d’Infrastructure-as-code. »
Eric MarinDirecteur technique, VMware France

« En réalité, Kubernetes est assez simple : il suffit de décrire ce qu’il doit lancer dans des descriptifs écrits en YamL. D’ordinaire, on y indique que des containers. Mais il est assez facile d’y mettre aussi des machines virtuelles et des serveurs physiques. La réelle évolution technique est que nous apportons à nos clients une solution d’Infrastructure-as-code, c’est-à-dire que l’on peut scripter – et donc de plus en plus automatiser – le déploiement des ressources virtuelles », explique au MagIT Éric Marin, le directeur technique de VMware France.

Project Pacific pilotera donc, via la couche vSphere Supervisor Cluster, le fonctionnement sur des hôtes physiques d’un hyperviseur ESXi, capable d’exécuter à la fois des machines virtuelles classiques et des Pods de containers, appelés ici vSphere Native Pods. Ceux-ci auront le même niveau d’isolation que des VMs. Mais le point le plus intéressant est que VMware se vante de pouvoir faire fonctionner un Pod de containers sur ESXi avec 8 % de performances en plus que si ce même Pod était directement exécuté par un système Linux, c’est-à-dire par rapport au fonctionnement habituel.

« Exécuter plus rapidement des containers au-dessus d’une couche de virtualisation plutôt que directement sur l’OS d’un serveur physique peut paraître contre-intuitif. Mais nous avons fait en sorte qu’ESXi orchestre mieux l’exécution des containers sur les bons processeurs que ne sait le faire le noyau de Linux », dit Karthik Ganesan, ingénieur en R&D chez VMware. Il détaille dans un billet de blog, la méthode utilisée. Elle consiste à placer les données d’un container dans la RAM directement rattachée, au cœur physique qui exécute ce container, alors que le noyau Linux est susceptible de demander à un cœur d’accéder à des données qui n’ont aucune chance d’être dans son cache.

Tanzu Mission Control pour rationaliser le travail des équipes opérationnelles

La partie Manage, enfin, sera concrétisée par un outil appelé Tanzu Mission Control. On ne sait pas encore si celui-ci constituera la nouvelle interface d’administration, incarnée aujourd’hui par le client web vSphere, ou s’il sera présenté comme le successeur de la suite VMware Cloud Foundation. Sa fonction sera en tout cas de piloter l’exécution des applications par-dessus toutes les ressources à la disposition d’une entreprise : vSphere-Project Pacific en local ou chez un prestataire de cloud privé, mais aussi les infrastructures IaaS publiques d’AWS, d’Azure, de GCP, d’Oracle Cloud et d’IBM Cloud, selon la liste donnée par Pat Gelsinger, le PDG de VMware.

Techniquement parlant, Tanzu Mission Control est capable de s’interfacer avec les différentes implémentations de la pile Kubernetes – PKS chez Pivotal, EKS chez AWS, AKS chez Azure, etc. – pour leur transférer des Pods de containers et suivre leur manière de les exécuter. La solution devrait par ailleurs reposer sur l’outil VMware HCX pour convertir les machines virtuelles de vSphere aux formats des clouds publics. Enfin, elle s’accompagnera de VMware Wavefront, l’outil qui sert à monitorer le comportement des ressources virtuelles déployées en cloud depuis vSphere.

« L’idée qui nous plaît énormément dans cette annonce est qu’il va devenir possible d’exécuter n’importe où une application juste en indiquant l’adresse IP du Pod ou de la VM qui va lui servir de socle », commente pour le MagIT Yves Pellemans, le directeur de l’innovation de l’intégrateur Axians.

« Cela va résoudre un énorme problème que nous rencontrons aujourd’hui chez nos clients : lorsque leurs développeurs veulent mettre en production un projet qu’ils ont bâti sur un Kubernetes de test, il faut mettre en place une nouvelle équipe d’exploitation, qui n’a rien à voir avec l’équipe de production en charge des machines virtuelles dans le datacenter. Les uns vont devoir apprendre à écrire des scripts en Python et en PowerShell, alors que les autres sont habitués à manipuler l’interface graphique de vSphere. Si tout passe par une interface unique, les équipes déjà en place seront en mesure d’assurer l’exploitation de Kubernetes. »

Et d’insister sur la composante RH : « nos clients, de grandes entreprises, ont généralement cinq à dix personnes sur la gestion de l’infrastructure. Avec un Kubernetes classique, il faudrait qu’elles trouvent autant de nouveaux experts à embaucher pour s’en occuper, alors que Kubernetes ne va exécuter que 5 % de leurs applications. L’idée de VMware est donc de dire : très bien, vous payez pour notre offre, alors que Kubernetes est habituellement gratuit, mais vous économisez ce que vous coûtera l’embauche d’experts dont le profil est, surtout, excessivement rare sur le marché. »

L’offre Tanzu sera graduellement disponible de début 2020 à mi-2021

Sur le plan technique, Yves Pellemans explique que Tanzu va permettre d’accoler simplement toutes les fonctions de haut niveau de VMware à des containers qui en sont de base dépourvus. « La sécurité, le stockage, l’archivage, l’équilibrage de charge, le SLA ou encore les plans de reprise d’activité sont aujourd’hui excessivement complexes à configurer sur les containers avec des produits Open source. »

Tanzu doit apporter aux machines virtuelles l’élasticité des containers.

À l’inverse, Tanzu doit apporter aux machines virtuelles l’élasticité des containers. « In fine, ce que veulent les entreprises, c’est qu’au fur et à mesure que les requêtes des utilisateurs augmentent, les serveurs se démultiplient tous seuls pour absorber la charge », dit Yves Pellemans.

Des premières versions de Tanzu devraient être disponibles d’ici à la fin de l’année en version bêta pour les entreprises qui ont souscrit au programme de pré-évaluation. Les différents outils seraient ensuite disponibles entre le premier trimestre 2020 et la mi-2021.

À un moment donné, Tanzu apportera aussi la possibilité d’exécuter sur site des services qui ne s’exécutent aujourd’hui que dans les clouds publics. Lors de l’événement VMworld 2019 de Barcelone, VMware a cité les bases de données RDS d’AWS et SQL Database d’Azure, mais aussi Outpost qui sert à exécuter en local des machines virtuelles au format EC2 et à les piloter avec les API d’AWS.

« Des entreprises peuvent avoir des impératifs de latence ou de criticité qui les incitent à vouloir exécuter sur site ces services qu’ils ont appris à utiliser en ligne. Pour être tout à fait honnête, la demande existe aujourd’hui aux USA, mais nous ne l’avons pas encore rencontrée en France. En tout cas, nous montrons que, techniquement, vSphere saura le faire si un tel besoin est exprimé par nos clients », indique Éric Marin.

Pour approfondir sur Administration et supervision du Cloud

Close