Cet article fait partie de notre guide: Comment optimiser l’infrastructure de votre VDI

VDI : pourquoi il vaut mieux utiliser une infrastructure hyperconvergée

Étendre un cluster hyperconvergé pour supporter plus de postes virtuels garantit que les performances du stockage resteront les mêmes pour tous les utilisateurs supplémentaires.

L’avantage d’utiliser une infrastructure hyperconvergée pour déployer des postes virtuels en mode VDI est qu’il suffit d’ajouter des nœuds pour faire croître de manière linéaire le nombre d’utilisateurs, sans craindre de goulets d’étranglement ni de chute des performances. Ce n’est pas le cas avec des nœuds de calcul reliés à une baie de stockage externe. Il est important de le savoir, car cette différence n’est pas visible lorsque l’on teste un déploiement VDI sur un projet pilote avec un minimum de nœuds.

C’est un classique. Les entreprises valident une certaine quantité de RAM et de processeurs dans des nœuds serveurs pour supporter une centaine d’utilisateurs en VDI. Mais les performances s’écroulent lorsque l’on multiplie les nœuds pour passer à plusieurs milliers d’utilisateurs, car la baie de stockage n’a plus assez d’IOPS pour répondre à tous les nœuds. Ce problème est d’autant plus délicat qu’il n’y a pas de moyen pratique pour prévoir comment des utilisateurs supplémentaires affecteront les performances du stockage.

Avec une infrastructure hyperconvergée, le stockage est intégré aux nœuds de calcul, de sorte que l’ajout de capacité de calcul ajoute également une capacité de stockage supplémentaire et, de fait, une bande passante en plus vers le stockage. Il en résulte des pilotes plus fiables : si trois cents utilisateurs fonctionnent bien sur un cluster hyperconvergé de trois nœuds, alors il suffira de déployer trente nœuds pour supporter trois mille utilisateurs.

Les trente nœuds fourniront une capacité de stockage dix fois supérieure, ainsi qu’une capacité de CPU, de mémoire et de réseau dix fois supérieure. Trois mille utilisateurs sur trente nœuds hyperconvergés bénéficieront des mêmes performances que trois cents utilisateurs sur trois des mêmes nœuds.

Prendre en compte les accès entre les nœuds

Chaque nœud hyperconvergé dispose d’une quantité fixe de stockage, généralement un mélange de SSD hautement performants et de disques qui le sont moins. La moitié des écritures effectuées sur les disques d’un nœud concerne les machines virtuelles de ce nœud et l’autre moitié concerne les écritures redondantes envoyées par un autre nœud. Ce détail est important : il n’est pas possible de tester un projet VDI avec un seul nœud hyperconvergé, car les mesures ne prendront pas en compte la charge que représentent les écritures redondantes, lesquelles servent à fiabiliser les données.

Les lectures fonctionnent différemment selon les plateformes hyperconvergées. Dans le meilleur des cas, chaque nœud effectue toutes les lectures pour ses propres machines virtuelles depuis ses propres disques. Dans le pire des cas, n’importe quel nœud est susceptible de servir de lecteur pour la VM d’un autre nœud. Mais ce n’est pas un problème, car plus il y a de machines virtuelles, plus il y a de nœuds et, donc, plus la performance des lectures augmente.

Les infrastructures hyperconvergées ont néanmoins elles aussi leur goulet d’étranglement : le réseau. Afin d’éviter qu’il n’entraîne des chutes de performances, les constructeurs imposent au minimum un réseau de 10 Gbit/s entre les nœuds. À l’épreuve, les entreprises préfèrent déployer directement des réseaux en 25 ou en 40 Gbit/s pour garantir les débits les plus optimaux.

Pour approfondir sur Infrastructure hyperconvergée

Close