10 conseils pour la gestion du stockage sur les serveurs virtualisés (1/3)

La virtualisation de serveurs et de postes de travail virtuels peuvent compliquer la mission des administrateurs de stockage. SearchStorage a compilé une "checklist" de 10 conseils qui peuvent vous aider à mieux anticiper l'impact de la virtualisation sur la gestion de votre stockage.

Sommaire du dossier
1 - Les technologies clés pour 2011 (1ère partie)
2 - Les technologies clés pour 2011 (2nde partie)
3 - Les tendances du stockage pour 2011: les prédictions des analystes
4 - 10 conseils pour la gestion du stockage sur les serveurs virtualisés

La virtualisation de serveurs et de postes de travail ont fourni des moyens relativement simples pour consolider les systèmes physiques. Mais ces technologies ont aussi créé de nouveaux problèmes pour les administrateurs de stockage de données qui ont besoin de configurer efficacement leurs ressources de stockage pour répondre aux besoins d'une infrastructure consolidée.

La virtualisation des serveurs concentre habituellement les charges de travail de multiples serveurs sur un nombre limité d’équipements de stockage, créant souvent des goulets d'étranglement. De nombreuses machines virtuelles (VM) entrent en effet en compétition simultanément pour les ressources de stockage. Dans les scénarios de virtualisation de postes de travail, cette concentration est encore plus dense, sachant que chaque serveur héberge alors beaucoup plus de VM clientes qu’habituellement de VM serveurs. La gestion du stockage dans un environnement virtuel est donc un défi permanent pour les administrateurs de stockage qui doivent s’assurer que les serveurs virtualisés et postes de travail virtualisés disposent des ressources appropriées.

# 1 Apprenez à connaitre le profil I/O de vos applications

Les profils d’usage des postes virtualisés sont très différents des profils d’usage de serveurs virtuels, et les niveaux d’entrées sorties générées par ces différents éléments peuvent varier considérablement. Aveuglément déployées sur des serveurs sans égard pour leur niveau d’entrées/sorties, des VM peuvent rapidement créer des goulets d'étranglement sur les ressources existantes.

Il est donc important d’avoir au moins une idée générale du volume et du profil d’entrées/sorties que va générer une machine virtuelle selon le type d’application qu’elle héberge. Par conséquent, un des objectifs à viser est de répartir les entrées/sorties de façon équilibrée entre les différents hôtes physiques mais aussi entre les ressources de stockage. Si vous avez trop de machines virtuelles consommatrices en I/O sur un hôte unique, elle ont le potentiel de submerger le contrôleur de stockage de l'hôte ; de même, trop d’I/Os ciblant simultanément un même système de stockage peuvent le submerger et donc nuire à la qualité de service.  Il est donc toujours intéressant, même si vous avez une bonne idée du profil I/O de vos VM, d'utiliser des outils de suivi de la performance afin de collecter des statistiques détaillées telles que le niveau moyen d’I/O d’une VM ou son pic.

Au passage n’oubliez pas que les machines virtuelles sont et peuvent changer d’hôte, grâce aux technologies telles que VMware VMotion. Avoir un groupe de serveurs Exchange très sollicités se retrouver sur le même hôte pourrait amener le sous-système disque à ses genoux. Si vous utilisez VMware Distributed Resource Scheduler (DRS) pour équilibrer la charge de travail entre les hôtes, gardez à l'esprit qu'il ne prend pas en compte les I/O disque comme critère de répartition et ne s’appuie que sur l’utilisation CPU et mémoire. Pour compenser cela, il est possible de définir des règles de DRS qui veilleront que certaines VM ne puissent jamais cohabiter sur les mêmes hôtes.

# 2 Évitez ou lissez les pics d'entrées/sorties

Certains scénarios avec vos machines virtuelles peuvent se traduire par des périodes d’entrées/sorties très intenses, ce qui peut créer un tel conflit de ressources que l’ensemble des performances de vos VM s’en trouvera affecté. Pour la virtualisation de postes de travail, c’est un phénomène typique dans le cas des « boot storms » (littéralement tempêtes de démarrage) , lorsque l'ensemble de vos utilisateurs allume leur poste de travail à environ la même heure chaque matin. Il existe aujourd’hui des moyens pour y faire face, par exemple en ajoutant des contrôleurs de cache dans les baies comme le Flexcache de NetApp (ex PAM), ou dans le cas de XenServer 5.6 Update 1 en ajoutant des SSD sur les serveurs virtualisés qui agiront comme tampon local vers les ressources SAN.

D'autres scénarios - comme les sauvegardes, les analyses antivirus ou l’application de correctifs - sont contrôlables ou planifiables de façon à distribuer la charge. Lancer simultanément la sauvegarde de l’ensemble des serveurs hôtes n’est peut-être pas une idée judicieuse, mieux vaut tenter de les répartir. De même, utiliser des applications de sauvegarde qui ne tiennent pas compte des spécificités des environnements virtuels n’est pas non plus la meilleure idée qui soit, alors que des mécanismes existent pour limiter l’impact des sauvegardes sur les I/O. Pour les opérations programmées comme les patchs et l'analyse antivirus, on peut aussi créer des horaires aléatoires ou au moins répartir les tâches à réaliser dans le temps. Vous devez aussi être prudents lors de l'exécution d’opérations de défragmentation de disque, qui peuvent génèrer des volumes d’I/O importants mais aussi avoir un impact sur l’efficacité du Thin provisioning.

# 3 Utiliser efficacement l'espace

Il est facile de consommer l'espace disque disponible avec des machines virtuelles, mais il existe des moyens pour contrôler et limiter la quantité d'espace réellement occupée sur vos périphériques de stockage. Pour les bureaux virtuels ou les environnements de serveurs de test, on peut économiser beaucoup d’espace en utilisant la technologie des clones liés de VMware. Les clones liés sont semblables à des instantanés de VM où le fichier de référence de la machine virtuelle est en lecture seule. Un disque de deltas est créé pour chaque utilisateur qui stocke indépendamment les modifications qu’il apporte. Avec les clones liés, l’image maître de la VM est lue par l’ensemble des machines virtuelles, mais toutes les écritures se produisent sur le disque de deltas individuel de chaque VM. En évitant ainsi de dupliquer les principales données (système d’exploitation, applications…), on réduit sensiblement la capacité consommé. Typiquement une VM qui aurait consommé 40 Go n’en consomme plus que 2 ou 3. Soit pour 100 machines un volume de 4To à comparer à un espace de 240 à 340 Go.

Le Thin provisioning peut aussi aider à économiser de l'espace. Il peut être mis en œuvre au niveau de la couche de virtualisation ou de la couche de stockage. Presque toutes les machines virtuelles se voient alors attribuer plus d'espace disque que ce dont elles ont besoin; mais cette capacité ne sera pas consommée et ne sera débloquée qu’au fur et à mesure des besoins réels. L'utilisation du Thin provisioning peut donc réduire considérablement la quantité d'espace disque consommée par une machine virtuelle en tout cas au début de son cycle de vie.

Adapté d'un texte original en anglais d'Eric Siebert, SearchStorage.com

Pour approfondir sur SAN et NAS

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close