Getty Images/iStockphoto

Micro-clouds, la nouvelle tendance des succursales

Le déploiement d’infrastructures autonomes, automatisées et remplies d’applications au format container se généralise dans les succursales des entreprises. Cet article explique comment les DSI doivent les prendre en compte.

L'informatique des succursales, points de vente et autres sites de production, à savoir le Edge computing, prend de l'ampleur. Au point que les entreprises doivent repenser leurs centres de données. Cette tendance consiste à décentraliser les ressources des datacenters pour les déployer sous forme de micro-clouds locaux.

Du point de vue informatique, cela implique de déplacer l'infrastructure et les systèmes vers la périphérie. La containerisation, c’est-à-dire le déploiement d’applications au format container via Kubernetes, plutôt qu’au format VM via VMware, est au cœur de cette stratégie. La difficulté est que le déploiement et la maintenance des containers en périphérie diffèrent d’un datacenter central.

Notez que, dans le cas d’une entreprise qui a déjà son datacenter en cloud chez un hyperscaler, le micro-cloud correspondra à ces baies locales que les fournisseurs de cloud proposent : Outpost chez AWS, Azure Stack chez Azure, etc.

Cet article présente les principes fondamentaux pour un déploiement et une maintenance réussis des containers dans les micro-cloud Edge.

Les datacenters micro-cloud et la containerisation : une transformation

Dans le cadre d’un micro-cloud, un site périphérique, comme une succursale ou un point de vente, reçoit une version allégée du datacenter central. Cette version allégée est physiquement fournie dans une seule baie rack qui inclut la mise en réseau, le stockage, le traitement, la sécurité et les applications.

L'objectif de ce mini-datacenter, ou micro-cloud, est de fournir aux sites périphériques toute la puissance de calcul en temps réel dont ils ont besoin depuis un ensemble matériel autonome. Cela élimine le besoin d'accéder à des ressources distantes, à savoir le datacenter central de l'entreprise.

La mise au format container des applications joue un rôle essentiel dans ces micro-datacenters, car elle permet aux sites périphériques de fonctionner de manière autonome.

Du point de vue informatique, cependant, le déploiement de containers dans de tels micro-clouds pose d'importants enjeux d’administration, notamment en matière de dimensionnement des ressources, de sécurité, de cohérence et d'assistance.

Dimensionnement des ressources. Le service informatique peut initialement provisionner plus de stockage et de puissance de traitement que ce dont un centre de données micro-cloud en périphérie a besoin. Cela peut entraîner un gaspillage de ressources. À l'inverse, il peut arriver que le micro-cloud en Edge doive s'adapter à la hausse, par exemple lors d'une activité importante dans un point de vente.

Ces situations ne diffèrent en rien de ce que fait le service informatique dans son datacenter central, mais le dimensionnement et la surveillance des ressources doivent désormais être effectués sur plusieurs sites en périphérie. Cela augmente la charge de travail informatique.

Sécurité. Les utilisateurs et leurs autorisations de sécurité changent régulièrement, et dans certains cas, des utilisateurs individuels se déplacent entre plusieurs sites périphériques différents. Un utilisateur peut disposer de niveaux d'accès différents sur chaque site, et ceux-ci peuvent même varier au niveau des containers. Dans ce scénario, la sécurité est plus difficile à gérer pour le service informatique.

Cohérence. Si chaque site périphérique utilise le même système d'exploitation et les mêmes applications pour faire fonctionner les containers de son micro-cloud, il est essentiel de maintenir la cohérence. Par exemple, un système de point de vente au détail peut être répliqué via des containers pour chaque magasin.

Pour garantir un fonctionnement fluide, il est important de maintenir les noyaux du système d'exploitation, les composants de l'infrastructure informatique et les applications aux mêmes niveaux de révision sur tous les sites périphériques. Cela peut être plus facile à dire qu'à faire.

Assistance. Des dysfonctionnements du système et du réseau sont inévitables dans les centres de données micro-cloud et les containers. Dans toute situation, il est essentiel de savoir qui les résout : le service informatique ou le fournisseur de cloud ?

Bonnes pratiques en matière de micro-cloud et de containerisation

Mettez en œuvre les meilleures pratiques en matière d'optimisation des ressources, d'orchestration des flux de travail et de mesures de sécurité afin de permettre aux équipes informatiques de gérer efficacement la complexité des applications containerisées, en apportant une plus grande valeur ajoutée tout en protégeant les données critiques.

1/ Adaptez la taille de chaque container à l'application qui l'utilisera. Les plateformes de containerisation, essentiellement Kubernetes, ont été développées pour les environnements cloud, où l'allocation et la désallocation des ressources sont flexibles et fluides. Cette élasticité peut poser des enjeux de coûts. Pour y remédier, le service informatique doit calculer les besoins en traitement, en stockage et en réseau pour chaque container en périphérie avant le déploiement.

Lors des tests préalables au déploiement, les allocations de ressources peuvent être évaluées à l'aide de tests de charge pour s'assurer qu'elles peuvent gérer les demandes de puissance prévues en périphérie. Les performances doivent être surveillées et vérifiées en permanence par le service informatique, qui doit pouvoir ajuster l'utilisation des ressources à la hausse ou à la baisse en fonction de la demande. Ces provisions et budgets en matière de stockage, de traitement et de réseau doivent être discutés, négociés et tarifés à l'avance avec les fournisseurs, puis intégrés dans les contrats de cloud et les SLA.

Lors du déploiement et au cours de la maintenance courante, il convient de vérifier chaque container afin de supprimer tout fichier superflu qui aurait pu y être laissé par inadvertance. Il s'agit généralement de fichiers en double ou de « restes » issus des phases de développement et de test.

2/ Orchestrez les flux de travail. Le service informatique doit gérer proactivement les micro-datacenters et les containers. Dans le cas d’une entreprise utilisatrice d’un datacenter en cloud public, cela signifie ne pas laisser les services d’AWS, Azure ou GCP s’occuper d’orchestrer les charges de travail entre ce qui est en cloud et ce qui est sur site.

L’entreprise doit établir elle-même un protocole pour la maintenance et les mises à jour des containers. Elle doit veiller à ce que la sécurité et les sauvegardes soient systématiquement assurées partout : en Edge, mais aussi pendant le transit des données entre le datacenter central et les sites périphériques.

3/ Passez à une sécurité plus rigoureuse. La mise en container des applications et les réseaux segmentés utilisés par les micro-clouds nécessitent que la sécurité soit appliquée au point d'entrée de chaque container accessible depuis le réseau.

Les autorisations de sécurité des utilisateurs constituent un deuxième enjeu, car un utilisateur peut travailler sur plusieurs sites périphériques et utiliser plusieurs micro-clouds. Chaque micro-cloud contient un ensemble d'applications containerisées, et l'utilisateur peut ne pas disposer du même niveau d'autorisation pour chaque container. Les autorisations des utilisateurs varient d'un container à l'autre et d'un site d’activité à l'autre.

Le service informatique doit s'assurer que chaque utilisateur, quels que soient le micro-cloud et ses containers auxquels il accède, dispose du niveau d'autorisation approprié pour utiliser ces ressources. La meilleure façon d'y parvenir est de collaborer activement avec les coordinateurs des utilisateurs des sites périphériques qui définissent ces politiques d'accès sécurisé.

4/ Mettez en place des règles d’administration spécifiques aux micro-clouds et aux containers. Les micro-clouds et la containerisation sont sources de complexité. Pour y remédier, les services informatiques collaborent avec les utilisateurs en périphérie et les fournisseurs d’applications afin d’assurer leur, mais la responsabilité finale de l’administration incombe au service informatique.

Le service informatique doit aborder cette responsabilité de manière proactive, en mettant en place des politiques et des protocoles bien définis pour la gestion des micro-cloud et des containers. Ces politiques et protocoles doivent servir à définir les exigences en matière de SLA (accord de niveau de service) pour les prestataires et être intégrés dans les contrats de cloud.

Des politiques et protocoles rigoureux doivent également être mis en place pour la containerisation, car de nombreux containers sont des copies conformes les uns des autres. Il incombe au service informatique de veiller à ce que les logiciels, les firmwares, le matériel et la sécurité de tous ces actifs containerisés restent synchronisés.

Pour approfondir sur Mini serveurs, Edge Computing