Il y a cinq ans, les infrastructures convergées faisaient figure de solution idéale. Un unique fournisseur, une unique pile technologique et un unique interlocuteur en cas de problème. Mais Broadcom a entre-temps racheté VMware et, selon le cabinet d’études ESG (Omdia), a rehaussé les coûts des hyperviseurs pour 72 % des entreprises américaines en l’espace de 18 mois. Les DSI qui ont construit toute leur infrastructure autour de VMware se trouvent aujourd’hui confrontés à des devis de reconduction qui font exploser leurs budgets. Or, abandonner leurs systèmes hyperconvergés reviendrait à repartir de zéro.
Une approche désagrégée au stockage change la donne en le séparant de la puissance de calcul. Une fois ces deux éléments distingués, vous pouvez changer d’hyperviseur sans toucher à vos données.
L’adoption de conteneurs nécessite une infrastructure flexible
Les conteneurs, qui représentent une alternative (ou un complément) aux machines virtuelles, sont conçus pour les 39 % d’entreprises américaines qui souhaitent moderniser leurs applications en réponse à l’augmentation des coûts de VMware, selon une étude d’ESG. Mais le système Kubernetes d’orchestration de conteneurs ne peut pas remplacer les machines virtuelles du jour au lendemain. La plupart des entreprises combinent les deux, et ce parfois des années durant. Les environnements de conteneurs ont des besoins infrastructurels extrêmement fluctuants, tandis que les machines virtuelles traditionnelles travaillent à un rythme plus prévisible. L'HCI (infrastructure hyperconvergée) a commencé à se développer vers 2010-2011, avant l'apparition d'outils d’infrastructure en tant que code comme Ansible et Terraform. Cette architecture n'a pas été conçue pour absorber les charges applicatives extrêmement variables que génère le cloud d'aujourd'hui.
L’erreur à ne surtout pas commettre consiste à siloter les machines virtuelles et les conteneurs. Si votre système HCI fonctionne bien à ce jour, conservez-le. Par contre, vos nouveaux projets risquent de requérir un stockage désagrégé, capable de desservir à la fois les machines virtuelles et les conteneurs à partir de la même baie. Il s’agit donc de rechercher un système de stockage offrant plusieurs fonctionnalités essentielles :
2• Prise en charge des systèmes de fichiers : Choisir une solution de stockage capable d’évoluer linéairement, du téraoctet au pétaoctet, sans refonte de l’architecture est essentiel. Les entreprises ne devraient jamais voir leurs choix technologiques dictés par des limites de capacité. Un stockage moderne, désagrégé et flexible doit pouvoir prendre en charge, sur une seule plateforme, les charges applicatives en mode bloc, fichier et conteneur. Il offre ainsi l’ensemble des fonctionnalités nécessaires pour accompagner des environnements IT en constante évolution.
• Intégration : Un bon système de stockage désagrégé doit communiquer nativement avec VMware, Kubernetes, Ansible et Terraform. Un système de fichiers capable de couvrir aussi bien les infrastructures AWS que celles d’Azure permet aux entreprises de jouer sur plusieurs tableaux ou de prendre en charge des systèmes multicloud et hybrides.
• Automatisation : Ansible et Terraform sont désormais matures, mais, à l’époque du lancement de l’HCI, ces outils en étaient à leurs balbutiements. Aujourd’hui, les entreprises utilisent des produits de ce type pour gérer leur infrastructure de manière programmatique. Elles peuvent également les mettre à profit pour leur stockage, à condition que leur solution de stockage propose les API requises. Beaucoup de baies de stockage traditionnelles n’ont pas été conçues pour absorber les charges applicatives d’automatisation ou d’infrastructure en tant que code qui caractérisent l’informatique d’aujourd’hui.
• Facilité de mise à niveau : Le stockage désagrégé permet aux équipes informatiques de tester de nouvelles plateformes en production sans risquer de tout perdre, dans la mesure où la couche de stockage ne bouge pas. Pour vous doter de cette capacité, optez pour des mises à niveau matérielles et logicielles n’impliquant pas d’interruption, vous permettant donc de changer de nœuds de calcul sans toucher aux données.
Gérer la migration
Les entreprises disposant de vastes infrastructures de stockage foisonnantes ne peuvent pas abandonner ou remplacer l’existant. Les toutes dernières innovations (en particulier tout ce qui implique des conteneurs) exigent de la flexibilité, non seulement parce que leurs charges sont volatiles, mais aussi parce que les besoins sont encore en pleine évolution. Il est stratégique de privilégier la flexibilité et l'agilité avant de décider de déployer de nouveaux systèmes.
Les entreprises progresseront pas à pas, en testant prudemment leurs plateformes applicatives modernes au fil de l’eau. Elles ont donc besoin de solutions leur permettant une migration progressive plutôt que de systèmes de type « tout ou rien ». Privilégiez des outils nativement conçus pour accompagner la migration et prenant en charge les sauvegardes multicloud afin d’éviter de vous retrouver enfermé dans un modèle de déploiement imposé.
Informations sur la cyberrésilience
Une étude révèle que 74 % des professionnels IT estiment que leur direction sous-estime la préparation aux cyberincidents, tandis que les organisations dotées de stratégies matures ont 2,8 fois plus de chances de récupérer correctement.
Voir maintenantLe véritable enjeu est la réduction du risque lié à une erreur d’appréciation quant à la plateforme qui s'imposera d’ici cinq ans. Opter pour une technologie qui répond aux objectifs de votre entreprise, s’avère simple à déployer, facile à gérer, et peut évoluer pour répondre aux besoins futurs ne limitera jamais vos perspectives de carrière. La débauche de fonctionnalités a perdu de son attrait lorsque les équipes ont réalisé que la complexité est l’ennemie de l'agilité.
Le mot d’ordre d'hier était « Personne n'a jamais été licencié pour avoir acheté IBM ». Celui de demain sera « Personne n'a jamais été licencié pour avoir acheté quelque chose qui élargit le champ des possibles ».
