Jamais la cadence ne ralentit. 91 % des entreprises nord-américaines annonçant une accélération de leurs investissements informatiques, on s'attendrait à ce que cela se traduise par des migrations vers le cloud et des consolidations de centres de données (c'est d'ailleurs ce qu'ont déclaré 89 % d'entre elles dans une étude menée par ESG, une société Omdia). En réalité, leurs infrastructures dans le cloud et sur site continuent toutes deux de prendre de l’ampleur. Les entreprises ne remplacent pas leurs anciens systèmes de stockage de données. Elles en ajoutent de nouveaux à côté dans le cadre de leurs préparatifs à l’intensification du développement et de déploiement de l'IA.
Une autre étude d’ESG ayant révélé que deux tiers des entreprises américaines doivent gérer au moins 10 pétaoctets de données, le problème de la dissémination des données sur de multiples plateformes de stockage, ayant chacune ses propres outils de gestion et de relations avec les fournisseurs, ne fera que s'aggraver. Chaque déploiement exacerbe la complexité au lieu de la réduire.
Qu'est-ce qui a changé ? Il y a cinq ans de cela, les infrastructures de stockage de données sur site étaient vues comme obsolescentes. Aujourd'hui, les responsables informatiques les considèrent sous un jour plus favorable, d'autant plus que les opérations d'IA requièrent des configurations matérielles spécifiques que les fournisseurs de stockage cloud ne peuvent pas toujours proposer à des conditions financières avantageuses.
Pourquoi la consolidation du stockage de données est toujours remise à demain
Pourquoi la complexité continue-t-elle de croître alors même que les entreprises déclarent renforcer la consolidation de leur stockage de données ? C'est en partie parce que les achats traitent les demandes projet par projet. Les équipes comblent leurs besoins immédiats sans tenir compte de la dette opérationnelle qu'elles génèrent ainsi. Prise individuellement, chaque solution de stockage de données fonctionne bien, mais ce sont les frictions entre les systèmes qui créent de la complexité.
Les décisions d'achat sont prises en vase clos. Par exemple, une équipe acquiert le stockage de données nécessaire à son projet d'IA. Personne ne se demande comment cette solution s'intégrera aux dix-sept autres systèmes déjà en place au sein du centre de données.
Tout le monde s’attache à résoudre les problèmes d’aujourd'hui, créant ce faisant les casse-têtes de demain. Cela se traduit également par des problèmes de fidélisation, car les ingénieurs qualifiés commencent à se sentir désabusés. Ils n’avaient pas signé pour suivre des indicateurs et exécuter des correctifs. Ces tâches de maintenance routinières poussent les meilleurs éléments à se tourner vers des emplois qui les mettent au défi de résoudre de véritables problèmes.
La tarification à l’usage en tant que solution
L’adoption de la tarification à l’usage permet de résoudre l’ensemble de ces problèmes. Cette pratique est encore relativement peu répandue (j'estime que seules 20 à 25 % des organisations l'ont adoptée), mais celles qui ont franchi le cap expriment une satisfaction quasi unanime. Ces modèles d’utilisation flexibles permettent aux clients de ne payer que pour les infrastructures qu'ils utilisent, et non pour ce qui reste inutilisé dans les serveurs. C'est comme disposer d’un réfrigérateur rempli de provisions que vous ne payez qu’une fois consommées. Ce modèle n'est peut-être pas applicable à votre cuisine, mais, transposé dans le domaine du stockage de données d’entreprise, il est déjà opérationnel.
Son véritable avantage dépasse la question de la rentabilité. Les fournisseurs de stockage de données se chargent davantage des opérations de maintenance, permettant aux équipes de se concentrer sur autre chose que la gestion des urgences. L'un des tous premiers utilisateurs de ce modèle a observé une fidélisation accrue du personnel, les équipes informatiques pouvant se détourner des tâches de maintenance routinières pour se recentrer sur des activités plus constructives. Ce qui rejoint les résultats d'une étude d’ESG démontrant que l’amélioration de l'expérience des employés et leur fidélisation constituent le bénéfice le plus souvent évoqué de ce modèle de tarification aux États-Unis.
Selon cette même étude, 39 % des organisations en Amérique du Nord s'efforcent de réduire le nombre de systèmes physiques au sein de leurs centres de données. Cela traduit une véritable volonté de passage à l'action en matière de consolidation des données. Pourtant, six entreprises sur dix ne sont pas engagées dans cette démarche. Il reste encore beaucoup à faire.
L’importance d’une migration fluide des données pour une consolidation réussie
Pour enfin parvenir à renforcer la consolidation de leurs données, les entreprises auront besoin de solutions de stockage capables de se redimensionner rapidement, à la hausse comme à la baisse, et ce sans interruption de service. Nous savons que les environnements conteneurisés peuvent voir leurs besoins en matière d’infrastructure connaître des fluctuations drastiques. Un cluster Kubernetes nécessitant 50 To aujourd’hui pourrait bien en requérir 500 (ou bien cinq seulement !) le mois prochain. Les pratiques d’approvisionnement traditionnelles sont incapables de gérer une telle volatilité.
Une migration de données réussie ne repose pas uniquement sur des capacités techniques : c’est avant tout ce qui garantit une consolidation sans interruption de service. Les temps d’arrêt ou les pertes de données peuvent avoir des conséquences importantes pour les entreprises, surtout lorsqu’elles cherchent à simplifier leur environnement IT. C’est pourquoi une migration fluide et sécurisée est indispensable.
Dans ce contexte, les fournisseurs de solutions de stockage capables d’accompagner leurs clients vers une tarification à l’usage, tout en assurant une transition sans friction, seront les mieux positionnés face à la complexité croissante des infrastructures.
