HPE : « Pour démocratiser l’IA en entreprise, il faut une plateforme »

Le constructeur améliore son offre d’infrastructure de cloud privé pour en faire une plateforme clés en main dédiée à l’IA. Tous les éléments sont pilotés via une seule console et une seule API. Philippe Rullaud, de HPE France, explique pourquoi.

Des appliances pour du cloud sur site et même pour du cloud sur site optimisé pour l’IA. Telle est la nouvelle approche commerciale que HPE a défendue lors de sa conférence annuelle HPE Discover qui s’est tenue plus tôt cet été. En substance, il s’agit d’acheter des configurations matérielles pour un usage, avec les logiciels de cet usage préinstallés et les services de cet usage vendus avec.

« Il y a ce concept d’usine d’IA prête à l’emploi que l’on retrouve chez Dell. Comme l’IA pose des enjeux de gouvernance, de réglementation et de cycle de vie que les entreprises n’identifient pas encore bien, ces fournisseurs vous proposent des solutions qui vous mettent sur des rails. La promesse est de pouvoir décliner facilement vos projets d’IA à toutes les équipes, tous les métiers, tous vos sites », commente Torsten Volk, analyste au cabinet ESG dans un éditorial.

Parmi les caractéristiques de ces solutions, il s’agit d’avoir une couche de pilotage globale. C’est-à-dire une interface pour l’administrateur et des API pour les développeurs qui restent les mêmes, quel que soit le type de stockage ou de réseau utilisé, partout où se trouve l’infrastructure du fournisseur. Le point clé étant que l’infrastructure en question est soit le matériel vendu sur site, soit des services d’IaaS en cloud public qui sont rendus compatibles.

CloudOps pour passer de l’infrastructure à la plateforme

Chez HPE, cette couche de pilotage s’appelle CloudOps ; c’est une suite logicielle comparable à VMware Cloud Foundation (VCF) de Broadcom. Elle comprend trois éléments.

Il y a d’abord la couche de virtualisation Morpheus, c’est-à-dire l’hyperviseur Open source KVM, plus tout le nécessaire pour attribuer aux VM des ressources de stockage, de connectivité et de calculs selon des règles. Il n’y a pas de paramétrage à base d’adresses physiques à faire : les règles automatisent tout le travail de configuration en faisant au mieux à partir des ressources disponibles.

Ce dispositif est compatible avec un cluster Kubernetes installé parmi les VM. Il permet donc aux développeurs d’utiliser des pipelines CI/CD pour déployer aussi aisément leurs applications, sans avoir à se soucier des détails spécifiques à l’infrastructure sous-jacente.

Vient ensuite l’outil de monitoring OpsRamp, une sorte de Splunk capable de collecter et d’analyser les informations télémétriques de plus de trois mille éléments informatiques. Ces éléments comprennent les équipements physiques ou virtuels, de nombreuses applications et même les modèles d’IA. Bref, tout ce qui émet des signes de fonctionnement pouvant être collectés via les protocoles OpenTelemetry et eBPF.

OpsRamp a des vues personnalisables selon les métiers et, surtout, une IA interne. Elle est capable de présenter les problèmes selon les priorités de tel ou tel utilisateur, de donner des conseils pour y remédier, voire d’automatiser des maintenances de routine au bon moment.

« Ce chatbot apporte aussi une dimension proactive. Vous pouvez par exemple lui demander quel serait le meilleur moment pour redémarrer vos serveurs. »
Torsten VolkAnalyste, ESG

Cette IA prend la forme d’un chatbot qui comprend les questions en langage courant et sait dresser des rapports graphiques en réponse. « Ce chatbot apporte aussi une dimension proactive. Vous pouvez par exemple lui demander quelles applications vont être impactées si vous redémarrez maintenant tels serveurs MongoDB. Ou, mieux, lui demander quel serait le meilleur moment pour redémarrer les serveurs MongoDB », observe Torsten Volk.

Enfin, le dernier élément est Zerto. Initialement présenté comme un logiciel de sauvegarde bien adapté à l’envoi de copies de secours sur un site distant en cas de cyberattaque, Zerto est désormais la cheville ouvrière de CloudOps pour faire passer les applications d’un site à l’autre, ou d’un datacenter au cloud. Comme le reste, Zerto automatisera les migrations selon des règles définies par l’administrateur ou des ordres envoyés sur son API par les développeurs.

CloudOps permet d’avoir une infrastructure qui se comporte comme un cloud : entièrement automatisée et potentiellement éclatée géographiquement sans que cela pose de problème. En faire une solution d’IA, selon HPE, correspond juste à ajouter à l’ensemble la suite AI Enterprise de Nvidia et de choisir les bons équipements. C’est-à-dire des GPU et du réseau suffisamment rapides.

Comprendre le nom des marques chez HPE : un défi en soi

Dans son catalogue, HPE appelle Private Cloud les solutions matérielles vendues avec CloudOps, et Private Cloud AI celles qui sont équipées (en plus) de la suite logicielle AI Enterprise de Nvidia. Quand ces solutions sont aussi vendues avec la possibilité de répartir les traitements en cloud public, on bascule sous la marque chapiteau GreenLake.

GreenLake est à la fois la marque des contrats commerciaux et le nom de la console qui permet de gérer les ressources hybrides. Cette approche marketing est si souvent incompréhensible pour les clients (et les journalistes) que Dell, qui avait voulu faire la même chose avec sa marque chapiteau Apex, a depuis jeté l’éponge ; il n’évoque plus Apex que comme le nom de son programme de vente.

L’ambition initiale du marketing de HPE était manifestement de faire croire que le fournisseur opérait son propre cloud, GreenLake donc, au même titre qu’un AWS ou qu’un Microsoft Azure. Hélas, tout le monde a compris dès le départ qu’il n’était que leur revendeur.

Toujours est-il que lorsque HPE se félicite que CloudOps est plus intéressant que VCF, parce qu’il est facturé au socket et non au cœur de processeur, il faut plutôt comprendre que cela ne s’applique qu’au logiciel Morpheus. Tout le reste dépend d’une multitude de formules financières GreenLake, calculées selon la durée, la taille, au forfait, à l’usage, etc.  

Interview

Voilà pour la théorie. Mais en pratique comment se passe la commercialisation de telles solutions sur le marché ? Pour répondre à cette question, LeMagIT est parti à la rencontre de Philippe Rullaud, le directeur des ventes de HPE France spécialisé dans les solutions d’IA (en photo en haut de cet article). Interview.

LeMagIT : Qui vous achète des infrastructures d’IA en France ?

Philippe Rullaud : Il y a trois typologies de clients. La première, c’est celle des fournisseurs de service et des hébergeurs de cloud qui investissent massivement dans des datacenters capables d’entraîner des modèles d’IA. Et, ce, plus particulièrement en France. Il y a ici une vraie dynamique de la part de ces acteurs, qui rendent pour la première fois l’entraînement de LLM accessible à des PME incapables jusqu’ici de se l’offrir.

Quand je dis accessible, j’entends proposer des services à un tarif qui va permettre à une PME d’entraîner son propre LLM une à deux fois par an. Et pour obtenir ce tarif, ces prestataires vont nous acheter des ensembles de serveurs, de réseau et de stockage taillés sur mesure, c’est-à-dire avec les bons GPU dans des configurations compatibles avec leurs datacenters, soit généralement refroidies par air.

La seconde typologie de clients, ce sont les entreprises qui veulent leur propre usine d’IA qu’elles hébergent dans leur datacenter ou dans un datacenter en colocation. Ces entreprises-là sont habituées au cloud et elles veulent travailler avec une plateforme similaire. Donc, nous leur proposons, pour entraîner ou utiliser des IA, des infrastructures refroidies par air et packagées sous la forme d’une plateforme Private Cloud AI.

« Sur 5 ans, dans le cloud, la puissance d’une soixantaine de GPU que vous n’utilisez que de temps en temps va vous coûter 30 millions d’euros. »
Philippe RullaudDirecteur des ventes, spécialisé dans les solutions d’IA, HPE France

Enfin, la dernière typologie est celle, historique, des centres de supercalcul. Nous sommes le leader mondial des supercalculateurs et nous avons toute une gamme de machines désormais refroidies par eau et garnies des puces de calcul et des switches réseau les plus performants du marché.

LeMagIT : Mais pourquoi les entreprises ne se contentent-elles pas d’utiliser les services d’IA que proposent les clouds publics ?

Philippe Rullaud : À cause du coût. Sur cinq ans, dans le cloud, la puissance d’une soixantaine de GPU que vous n’utilisez que de temps en temps va vous coûter 30 millions d’euros. Une infrastructure avec autant de puissance, qui vous appartient et que vous utilisez autant que vous voulez, ne coûte que 5 millions d’euros.

« Une infrastructure avec autant de puissance, qui vous appartient et que vous utilisez autant que vous voulez, ne coûte que 5 millions d’euros. »
Philippe RullaudDirecteur des ventes, spécialisé dans les solutions d’IA, HPE France

Et puis, bien entendu, il y a aussi des considérations de réglementations, de souveraineté, qui incitent une entreprise à préférer une infrastructure sur site à une infrastructure en cloud. Cela dit, je n’aime pas le terme souveraineté, car il y a une idée de frontières. Je dirais plutôt que les entreprises cherchent à faire de l’IA en toute indépendance.

Notez néanmoins que nous avons une approche hybride. Notre plateforme permet d’utiliser en même temps des ressources en cloud et d’autres sur site.

En fait, la vraie question que se posent nos clients est de savoir qu’elle est la formule la plus rentable. Parce que nombre d’entre eux, qui ont démarré dans le cloud public pour s’essayer à l’IA, ne savent pas dire s’ils doivent en sortir totalement, mais cherchent la manière économiquement la plus intéressante de passer à l’échelle. À cette fin, nous avons développé des outils de FinOps qui leur permettent de modéliser le coût de leur IA sur cinq ans. Ces outils prennent tout en compte : du coût des tokens en cloud au prix de l’hébergement d’une infrastructure.

LeMagIT : Si tout le monde veut se doter d’infrastructures d’IA à 5 millions d’euros, votre chiffre d’affaires doit exploser, non ?

Philippe Rullaud : Alors, sachez que les infrastructures à ce prix ne sont pas une nouveauté. Nous vendons tous les ans des infrastructures de virtualisation à 5 ou 10 millions d’euros aux entreprises.

Si le chiffre d’affaires de HPE augmente, et notamment sur la partie calcul, c’est surtout parce que les opérateurs et les hyperscalers sont plus nombreux à nous acheter des infrastructures qui coûtent plusieurs milliards d’euros. Mais c’est juste une période. Nous sommes dans la période où tous ces acteurs veulent se doter de très gros et très puissants datacenters.

LeMagIT : Donc votre marché de l’IA en entreprise n’a pas encore démarré ?

Philippe Rullaud : Il ne fait que démarrer. Parce que l’IA est encore une technologie nouvelle, mais aussi parce que c’est une conception nouvelle de l’informatique. Les entreprises basculent d’un modèle où l’IT était considérée comme une fonction de support à un modèle d’économie de la donnée.

Et c’est pour supporter cette économie naissante de la donnée que nous avons conçu une nouvelle plateforme qui suit le chemin de la donnée. Avec notre réseau, nous capturons la donnée, nous la connectons, nous la sécurisons. Avec notre infrastructure, nous la travaillons, en cloud, sur site, avec des notions de répartition, de stockage, de gouvernance. Et puis avec nos outils de gestion infusés à l’IA, nous faisons en sorte que cette donnée puisse se transformer en business.

« Les entreprises basculent d’un modèle où l’IT était considérée comme une fonction de support à un modèle d’économie de la donnée. »
Philippe Rullaud Directeur des ventes, spécialisé dans les solutions d’IA, HPE France

Les entreprises ont donc encore tout à faire. Et notre objectif est de démocratiser pour elles l’économie de la donnée. Des outils de FinOps pour savoir comment tailler leur budget. Des infrastructures taillées sur mesure pour leurs projets. Et des blueprints issus de la plateforme AI Enterprise de Nvidia afin d’implémenter leurs projets. Et pas que Nvidia, d’ailleurs, nous avons aussi notre propre suite HPE AI Essentials, qui se constitue d’outils pour les datascientists, pour faire du MLOps [contraction de Machine Learning et Opérations informatiques, en clair, administrer et monitorer l’infrastructure qui entraîne les LLM, N.D.R.].  

LeMagIT : Vous parlez beaucoup de Nvidia. Vous n’avez pas d’offre à base d’AMD ?

Philippe Rullaud : Nous taillerons sur mesure ce que nos clients nous demandent. Cependant, pour l’entreprise, l’offre de Nvidia est plus mature que celle d’AMD. Parce que leur plateforme vient avec tous les modules NIM qui apportent une très grande richesse fonctionnelle pour implémenter tous types de projets d’IA. Objectivement, AI Enterprise est en train de devenir un standard en entreprise, pour l’inférence, au même titre que l’a été VMware pour la virtualisation.

Les GPU d’AMD sont très bons, très performants. Mais nous observons qu’ils sont plutôt utilisés dans les fermes de supercalcul, où ils n’ont pas besoin d’un écosystème logiciel pour être utilisés.

Les GPU d’AMD ont aussi été présentés comme une alternative pour pallier la pénurie des GPU Nvidia. Mais en entreprise, nous proposons nos infrastructures avec des GPU H200 ou RTX Pro 6000 de Nvidia, sur lesquels il n’y a plus aucun problème de pénurie.

Pour approfondir sur Administration et supervision du Cloud