ra2 studio - Fotolia

Le DaaS met les applications accélérées par GPU à portée de main

Les postes de travail virtuels en mode cloud permettent aux entreprises qui ont besoin d’accélérer par GPU certaines applications, d’être plus évolutives, plus rentables et moins concentrées sur l’administration de systèmes.

Le modèle du poste de travail hébergé rendra probablement les GPU plus accessibles pour de nombreuses organisations, estime Mark Bowker, analyste senior chez Enterprise Strategy Group (ESG). Pour lui, il n’est pas exclu que des entreprises se disent : « Assez d’avoir à acheter des ordinateurs de bureau et des portables coûteux avec des GPU dédiés, et d’avoir à les renouveler régulièrement. Nous allons nous en passer ».

VDI en local ou DaaS

Les GPU permettent de traiter de gros volumes de données plus rapidement qu’avec les CPU. Ceux qui utilisent des applications fortement consommatrices de ressources graphiques, dans la manufacture ou l’ingénierie, par exemple, peuvent utiliser les GPU pour leurs applications de conception assistée par ordinateur (CAO) ou d’imagerie.

Il est possible pour les entreprises de déployer des GPU en local en s’appuyant sur des outils tels que Citrix Virtual Apps and Desktops et VMware Horizon, mais pas sans un déploiement VDI potentiellement complexe. Les postes de travail hébergés en mode cloud déportent de nombreuses tâches d’administration et peuvent offrir un accès plus économique à des GPU coûteux.

Cette approche était nécessaire pour que Dudek, une société d’ingénierie environnementale, puisse traiter les données de vol des drones. « Le VDI est formidable si vous pouvez l’installer correctement… mais vous avez besoin de quelqu’un pour maintenir l’environnement et s’assurer que tous ses composants fonctionnent correctement » relève Brian Nordmann, DSI de Dudek. Et lui cherchait plutôt « une solution clé en main pour que l’équipe informatique ne tombe pas dans le baby-sitting des systèmes ».

Auparavant, l’entreprise utilisait Citrix XenApp, mais elle a rencontré des problèmes liés à un réseau sous-dimensionné et à des performances médiocres sur le WAN : le traitement des données pouvait prendre jusqu’à cinq jours. Dans le cadre d’une transition vers le cloud, Dudek a fait le choix de stations de travail cloud Workspot à hautes performances préconfigurées et hébergées sur Microsoft Azure et offrant un accès direct aux GPUs Nvidia.

« Nous avions besoin d’un traitement GPU proche des données », explique Brian Nordmann : « ça nous coûterait cher de le faire nous-mêmes en interne ».

Pour Mark Bowker, le succès d’autres offres DaaS, comme Amazon Workspaces et Microsoft Windows Virtual Desktop, devrait renforcer la crédibilité de l’offre face au VDI en local. Windows Virtual Desktop peut supporter les applications nécessitant une accélération par GPU, mais il faut d’abord créer une VM Azure spécifique, l’ajouter au pool d’hôtes et la configurer correctement. Amazon Workspaces propose des packs GraphicsPro livrés avec un GPU Nvidia Tesla dédié.

Les atouts du DaaS pour les GPU

Le coût et la prévisibilité du cloud constituent des atouts importants pour les entreprises qui ne peuvent pas se permettre l’investissement initial dans du matériel GPU. Les clients de Workspot, par exemple, paient des frais annuels fixes pour accéder aux postes de travail virtuels. L’abonnement comprend également les frais d’hébergement et d’administration des composants de l’infrastructure GPU d’Azure. Pour Brian Nordmann, le calcul est simple : « lorsque l’on fait un investissement, on le traîne dans ses comptes pendant des années. Avec un abonnement, vous n’avez pas ce genre de risque ».

Le modèle économique du DaaS permet également aux entreprises de s’adapter plus facilement à l’évolution de leurs besoins applicatifs. Dudek, par exemple, avait besoin de limiter les risques liés à la volatilité de son secteur d’activité.

Et qui plus est, l’innovation est souvent plus rapide avec les GPU, et les équipements peuvent avoir des cycles de vie de deux à trois ans, au lieu de cinq à sept ans, relève Mark Bowker : « si un nouveau chipset GPU sort, je peux commencer à en profiter dès que le fournisseur cloud le prend en charge, plutôt que d’avoir à réaliser un nouvel investissement ».

Virtualisation d’applications et GPU

Parfois, il suffit de virtualiser quelques applications spécifiques dans le cloud, notamment lorsqu’elles nécessitent un système d’exploitation précis, autre que celui déployé sur les postes de travail, relève Mark Bowker. L’un des cas d’usage consiste par exemple à donner accès à de la formation en vidéo.

La virtualisation d’applications avec prise en charge du GPU convient parfaitement aux industries pétrolières et gazières qui utilisent des applications patrimoniales spécialisées fortement consommatrices de ressources graphiques, telles que celles de planification des puits et de surveillance géologique. Les réécrire pour les rendre accessibles via un navigateur Web est souvent coûteux et chronophage, souligne Aaron Cooke, co-fondateur de Helio Summit. Là, un outil tel que Cameyo, peut aider à fournir des applications virtuelles partagées accélérées par GPU. Comme le résume Mark Bowker, « je peux simplement gérer l’application elle-même, puis y donner accès en fonction des besoins ».

Approfondir

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close