Cet article fait partie de notre guide: VMware Explore 2023 : le guide

En Europe, VMware veut favoriser les clouds publics d’appoint

Lors de sa conférence européenne VMware Explore 2023, l’éditeur a multiplié les annonces autour de VCF, sa plateforme qui permet aux prestataires locaux de bâtir des clouds publics aussi fonctionnels que ceux des hyperscalers.

De l’IA générative, parce que tout le monde en demande, mais (surtout) du cloud d’appoint aussi complet que celui des hyperscalers. Tels furent les sujets des principales annonces faites lors de l’édition européenne de la conférence VMware Explore 2023, qui se tenait la semaine dernière à Barcelone. En substance, il s’agit d’intégrer plusieurs modules d’infrastructure tiers à la plateforme de virtualisation de VMware, afin d’en faire des services fonctionnels prêts à l’emploi.

D’ici à 2024, il sera possible d’activer sur vSphere (dans le datacenter des entreprises) et sur VCF (la version pour les hébergeurs), le système de stockage objet S3 de MinIO (MinIO Object Store) et la base de données AlloyDB Omni que Google réserve habituellement à son seul cloud public GCP. Selon VMware, il s’agit de déporter sur site les services prêts à l’emploi que l’on trouve chez les hyperscalers américains, mais dont l’usage chez eux peut poser un problème réglementaire. C’est essentiellement le cas si ces services doivent traiter des données sensibles.

Toujours au chapitre de la souveraineté, la console de déploiement Cloud Director va quant à elle se doter d’un module Content Hub pour poser des règles concernant l’aspect législatif des données. Véritable passerelle qui permet de faire passer les configurations VMware d’un cloud à l’autre, Cloud Director posait en effet le risque de transférer les données sensibles d’un datacenter local vers un hyperscaler soumis à une juridiction étrangère. Content Hub doit servir à empêcher ce risque.  

Concernant VCF uniquement, les hébergeurs pourront proposer comme services les bases de données MongoDB, Greenplum (vectorielle) et Apache Kafka (streaming), ainsi que le système de stockage objet StorageGrid de NetApp.

Enfin, la console de maintenance, Aria Operations, doit se doter dans les prochains mois d’un module d’IA qui surveillera tout seul l’activité des ressources, alertera en amont des incidents à venir, proposera des remèdes, voire les appliquera automatiquement. Selon VMware, Aria Operations doit permettre à des prestataires dont l’équipe est réduite d’offrir une qualité de service digne d’un grand hébergeur.

VMware défend l’affirmation que seule sa technologie de virtualisation est à même de faire glisser simplement les applications d’un cloud à l’autre, puisqu’elle les uniformise et qu’elle comprend des consoles capables de superviser tous les clouds. Pour porter cette stratégie, les hyperscalers américains AWS, Azure et GCP proposent – en plus de leurs propres offres de calcul – stockage et réseau, des services d’infrastructures qui clonent ceux de vSphere dans les datacenters. Et VMware propose à tous les autres fournisseurs de cloud de faire de même avec VMware Cloud Foundation (VCF), la version de vSphere qui leur est spécialement dédiée.

Selon les chiffres de VMware France, les entreprises seraient en moyenne clientes de 3,5 clouds. « Ce chiffre augmente d’année en année. Les entreprises vivent dans un environnement hétérogène, en quête du meilleur fournisseur pour le bon cas d’usage, avec la volonté de les mettre en compétition ou celle de s’adapter régulièrement à de nouvelles réglementations. Mais pour qu’il y ait compétition, il faut qu’il y ait une passerelle technique entre tous les clouds », résume Marc Dollois, le directeur général de VMware France (à droite sur la photo en haut de cet article).

Une infrastructure prête pour déployer des projets d’IA

AlloyDB Omni et MinIO Object Store sont censés apporter des capacités analytiques aux clusters VMware. AlloyDB Omni est un clone amélioré de PostgreSQL. Utilisée conjointement avec le système de stockage virtualisé vSAN de VMware, AlloyDB Omni apporterait aux applications analytiques des performances 100 fois supérieures à celles de PostgreSQL.

Quant à MinIO Object Store, VMware le présente comme un rouage essentiel dans les projets de Machine learning, où le système S3 ferait office de data lake pour des données de multiples formats.  

« Est-ce que les entreprises sont prêtes pour démarrer leurs projets d’IA ? Non, elles se demandent encore comment elles vont l’intégrer dans leurs activités commerciales. En revanche, toutes les entreprises nous demandent de leur fournir l’infrastructure qui va leur permettre de lancer les projets », commente Alexandre Caussignac, le directeur de l’ingénierie des solutions chez VMware (à gauche sur la photo en haut de cet article), lors d’une interview avec LeMagIT.

« C’est dans ce contexte que s’inscrit l’arrivée d’AlloyDB, de MinIO, de MongoDB, de StorageGrid qui vont permettre de référencer plus de types de données. Ils apportent à notre cluster de stockage virtuel vSAN de nouveaux accès en mode bloc et objets, en plus du mode fichiers. Ensuite, ces données pourront être analysées via des GPU Nvidia, que nous savons à présent virtualiser et qui permettent d’accélérer par quarante les analyses. ».

« Certaines entreprises entraîneront leurs propres modèles d’IA, mais la plupart d’entre elles utiliseront des modèles déjà entraînés et dont elles affineront les résultats avec leurs propres données. »
Alexandre CaussignacDirecteur de l’ingénierie des solutions, VMware

« Nous pensons que certaines entreprises entraîneront leurs propres modèles d’IA, mais que la plupart d’entre elles utiliseront des modèles déjà entraînés et dont elles affineront les résultats avec leurs propres données. Cela se fait avec une base de données vectorielle comme Greenplum. »

« Et s’il est nécessaire d’exposer en cloud public des données sensibles pour entraîner les modèles ou affiner les résultats, nous savons les anonymiser rapidement depuis les GPU de Nvidia et le système de cache Nemo. Nous savons aussi tout chiffrer rapidement grâce à nos pilotes pour les DPU Nvidia et Intel. Tout cela est faisable dans nos consoles », énumère-t-il.

En l’occurrence, Alexandre Caussignac fait référence à vSphere Distributed Services Engine (DSE), un module capable de transférer certaines fonctions de vSAN (stockage) et de NSX (réseau) du processeur à une carte DPU. Il sera également disponible d’ici à l’année prochaine.

Transformer les ESN en fournisseurs de cloud public

VCF est la version du système de VMware qui permet à des prestataires de bâtir eux-mêmes une infrastructure de cloud pour la commercialiser ensuite sous forme de services. Et ce n’est pas un hasard si l’édition européenne de VMware Explore 2023 met autant ce produit à l’honneur.

Comparativement à l’édition américaine de cette conférence, qui s’est déroulée en août dernier, VMware insiste peu en Europe sur la réplique de ses fonctions en cloud public (les fameuses infrastructures virtuelles « VMware on… » disponibles sur AWS, Azure et GCP). Et pour cause : les filiales européennes de l’éditeur ne commercialisent pas ces services, que les hyperscalers vendent eux-mêmes après en avoir acheté les licences à la maison mère. De fait, VMware se présente plutôt en Europe comme le fournisseur qui permet aux prestataires locaux d’incarner une alternative aux hyperscalers américains.

« Oui, en France, comme partout en Europe, VCF porte une bonne partie de notre chiffre d’affaires », reconnaît Marc Dollois. « Grâce à VCF, nous permettons à des prestataires d’aller au-delà de l’infogérance, au-delà de l’édition logicielle. Nous leur permettons de proposer les mêmes services cloud qu’ailleurs et d’y ajouter leurs particularités de coût, de confiance, de proximité, d’optimisation, de réglementation. »

Marc Dollois balaie de la main la dénomination de cloud privé sur laquelle l’interroge LeMagIT : « le cloud privé revient pour un prestataire à vendre des serveurs à son client. Ce n’est plus ce que leur demandent les entreprises. Elles souhaitent des services : des applications, des fonctions, avec un hébergement de leurs données, avec du chiffrement, avec des sauvegardes, de la récupération en cas de sinistre… », dit-il.

« Vous appelez cela du cloud privé, parce que vous avez cette image du prestataire qui va héberger ses serveurs dans un datacenter de proximité. Mais la réalité est que, à l’usage, il s’agit bien de cloud public », insiste-t-il.

En l’état, en effet, VCF permet de déployer des machines virtuelles prêtes à l’emploi, d’autres préconfigurées avec des fonctions ou des applications, des containers, des espaces de stockage logiques, des réseaux logiques. Et tout est revendable à la découpe sous forme d’IaaS, de PaaS ou de SaaS, c’est à dire sous forme de services payables à l’usage. VCF est fourni avec des consoles capables de monitorer et de facturer les ressources et le trafic par client.

Demeurer leader dans les datacenters

Si LeMagIT n’a pas été en mesure de savoir combien d’ESN françaises avaient déjà pu, grâce à VCF, se transformer en fournisseur de cloud public, VMware indique que sa plateforme aurait déjà servi à bâtir 50 clouds souverains. En France, il s’agit de celui d’OVHcloud.

VMware (dernier CA trimestriel de 3,41 milliards de dollars) s’est largement imposé comme le leader des plateformes de virtualisation de l’infrastructure. Il devance de loin ses concurrents comme Nutanix (dernier CA trimestriel de 492,4 millions de dollars), lequel virtualise surtout les postes de travail, et OpenStack, qui n’est plus présent que sur des marchés spécifiques (télécoms, recherche).

Pour autant, la virtualisation n’est plus considérée comme une technologie de pointe. La plus récente containerisation s’impose rapidement pour déployer de manière plus fluide des applications en cloud. En la matière, c’est le système Open source Kubernetes qui est majoritairement utilisé et, souvent, via sa version commerciale OpenShift éditée par Red Hat.

« Concernant la containerisation, la réalité est que les entreprises exploitent majoritairement des applications historiques qu’elles renoncent à transformer en containers parce que cela coûte trop cher. »
Marc DolloisDirecteur général, VMware France

Les revenus exacts de Red Hat ne sont pas connus, car ils sont noyés dans la division logicielle (dernier CA trimestriel de 6,6 milliards de dollars) de sa maison mère IBM (dernier CA trimestriel de 14,75 milliards de dollars). Mais l’évolution continue de ses ventes, en progression de 9 % – soit un point de plus que la division logicielle elle-même – suggère qu’OpenShift devrait s’imposer dans les datacenters au même titre que l’ont fait vSphere et VCF.

« Cela ne menace aucunement nos ventes. Parce que, pour commencer, OpenShift s’installe désormais majoritairement par-dessus notre plateforme », rétorque Marc Dollois.

« Et concernant la containerisation, la réalité est que les entreprises exploitent majoritairement des applications historiques qu’elles renoncent à transformer en containers parce que cela coûte trop cher. Dans les banques, par exemple, les containers sont limités aux applications qui interagissent avec les smartphones des clients. Cela ne représente que 1 % de la puissance de calcul de leur informatique », ajoute-t-il.

À l’occasion de cette édition européenne de VMware Explore 2023, IBM faisait la démonstration d’une version installable sur site de sa dernière plateforme d’IA, Watsonx. La pile présentée nécessite de déployer OpenShift au-dessus de VCF.

Pour approfondir sur IaaS

Close