Deep learning : Nvidia muscle son offre AI Enterprise

Très rapidement passée en version 2.0, AI Enterprise, la suite d’outils de Nvidia gagne de nouvelles options de déploiements et une flopée de librairies de développement. Dans le même temps, le fabricant taïwanais entend rassembler le maximum de partenaires.

Nvidia a profité de la GTC 2022 pour annoncer AI Enterprise 2.0, à peine trois mois après avoir annoncé la mouture 1.1. Cette « nouvelle » édition est dite cloud native. La plateforme de data science peut être installée dans la plupart des data centers sur site et être hébergée dans le cloud (GCP, Azure, AWS et Equinix IBX), selon l’entreprise. Les serveurs Bare-metal, les infrastructures virtualisées du marché et même les systèmes équipés de GPU, de DPU ou uniquement de CPU peuvent exécuter la plateforme, à condition qu’ils soient certifiés par Nvidia.

Aussi, Nvidia assure désormais prendre en charge les machines virtuelles et leur hyperviseur VMware et Kubernetes, soit par le biais de VMware Tanzu, soit en déployant Red Hat OpenShift.

 « Le problème, c’est que de nombreux responsables IT ne disposent pas de l’ensemble des compétences nécessaires pour déployer des GPU », affirme Chirag Dekate, un analyste chez Gartner.

L’utilisation de ces processeurs graphiques compliquerait la pile technique nécessaire à l’intelligence artificielle pour les DSI habitués à déployer des clusters reposant exclusivement sur des CPU, toujours d’après l’analyste. Ce serait la raison pour laquelle Nvidia a scellé des partenariats avec Red Hat, VMware ou encore Domina Data Lab, l’éditeur d’une solution MLOps intégrée à AI Enterprise. Ces accords seraient compétitifs pour Nvidia.

Un écosystème de partenaires de plus en plus convaincant

« Nvidia ne se contente pas de fournir des capacités d’infrastructure ni de fournir des données aux data scientists et aux parties prenantes, mais elle se penche également sur l’entreprise et lui permet de créer des plateformes, qu’elles soient sur site ou dans n’importe quel cloud, même hybride », avance Chirag Dekate. « Ils ont une stratégie exhaustive que les autres n’ont pas ».

En réalité, dès lors qu’elles ont déployé des HPC consacrés à la simulation, à la CAO et à la recherche, les DSI des entreprises ciblées par cette offre – les constructeurs automobiles, les firmes pharmaceutiques, les avionneurs, etc. – ont l’habitude d’administrer des GPU. Oui, les compétences ne sont ne pas forcément diffusées dans les organisations, mais les équipes de data science ayant mis un doigt dans le deep learning savent de quoi il en retourne.

Cependant, les groupes ont l’habitude de traiter avec les associés de Nvidia, VMware et Red Hat, entre autres. D’ailleurs, l’entreprise dirigée par Jensen Huang compte bien miser sur cet écosystème : le CEO a annoncé le lancement de l’AI Accelerated Program. Plus de 100 partenaires, dont Red Hat, VMware et Adobe (mais aussi Esri, SUSE, Ansys, Altair, Autodesk, etc.) vont proposer leurs services et leurs applications aux clients prêts à adopter Nvidia AI Enterprise.

La même logique sous-tend Omniverse, une plateforme cloud/VDI consacrée à la collaboration autour des sujets de CAO et de simulations d’objets 3D. Celle-ci dispose de multiples connecteurs vers les produits du marché, dont ceux d’Autodesk, d’Adobe ou encore d’Ansys. De son côté, Nvidia a présenté une préversion de son système OVX, un système dédié à la génération de jumeaux numériques.  

« Nvidia commence à créer une plateforme et une stratégie d’écosystème qui deviennent vraiment difficiles à concurrencer », estime Dan Miller, analyste chez Opus Research.

Deep learning : une flopée de librairies gratuites ou open source

Cela n’empêche pas l’éditeur de pousser ses propres solutions logicielles, notamment pour exploiter les architectures spécifiques à ses GPU.

En l’occurrence, Nvidia a surtout présenté les nouvelles versions des librairies Triton, Riva 2.0, NeMo, Maxine et TAO, incluses dans sa suite AI Enterprise.

Triton est un logiciel open source de service d’inférence pris en charge par la plupart des frameworks de data science. La nouvelle version doit accélérer les déploiements des modèles en production, et assurer la montée à l’échelle sur Kubernetes. Enfin, une nouvelle bibliothèque supporte l’inférence des algorithmes Random Forest.

 Riva 2.0, lui, est un SDK gratuit dédié aux traitements des données en temps réel accélérés par des GPU. Ici, il s’agit d’effectuer de la reconnaissance vocale et du text-to speech en sept langues à la volée, à partir de modèles de deep learning préentraînés. L’éditeur aurait doublé la précision de ses services génériques. La version payante, elle, se nomme Riva Enterprise. Le spécialiste du UcaaS RingCentral utilise déjà la solution. La boîte à outils TAO (Train, Adapt and Optimize) permet de fine-tuner les modèles pour des usages spécifiques, de préparer et d’augmenter les données d’entraînement ou d’effectuer des élagages (pruning) afin d’optimiser les performances des modèles ML/DL. Nvidia a développé des outils et des architectures tels EfficientNet, YOLOv3/v4, RetinaNet, FasterRCNN ou encore UNET.

De la même manière, Merlin 1.0 est une architecture pour la conception, l’entraînement et le déploiement de systèmes de recommandation à large échelle. Elle comprend une collection de projets open source, dont NVTabular (feature engineering), HugeCTR (framework d’entraînement), le tout couplé à RAPIDS, CUDnn et Triton. En accès limité, NeMO Megatron est un framework pour entraîner des variantes des mégamodèles « de type GPT-3 » (la licence de GTP-3 est exclusive à Microsoft, il s’agit sûrement de variantes de GPT-2) sur les GPU A100. Enfin, Maxine est un SDK dédié à la création de contenus vidéo incluant des fonctions de machine learning pour réaliser des effets spéciaux (audio et vidéo) et des applications de réalité augmentée.

AI Enterprise comprend ainsi des bibliothèques bas et haut niveau conçues par Nvidia pour ses GPU en sus des frameworks de data science open source, tels TensorFlow, Matpotlib ou Pytorch.

« Nvidia s’est distingué en se positionnant comme un éditeur de logiciels qui construit du matériel qui, à son tour, prend en charge ses produits existants et futurs. »
Dan NewmanAnalyste, Futurum Research

Pour mettre le pied à l’étrier aux apprentis data scientists (et donc s’assurer l’adoption la plus massive possible de la solution AI Enterprise), Nvidia a lancé Launchpad, un package de solutions basé sur AI Enterprise couplé à un programme de formation propulsé par Equinix, disponible dans neuf régions cloud.

Cette approche holistique, « full stack », dixit l’analyste de Gartner, semble convaincre les observateurs du marché qui voient bien que la marque au caméléon pousse bien au-delà de son statut de fabricant de cartes graphiques.

« Nvidia s’est distingué en se positionnant comme un éditeur de logiciels qui construit du matériel qui, à son tour, prend en charge ses produits existants et futurs », avance Dan Newman, analyste chez Futurum Research. « Fondamentalement, ce sera leur avantage à l’avenir par rapport aux fabricants de puces qui s’enracinent uniquement dans la conception hardware ».

Reste à savoir si cette approche convaincra les laboratoires de recherche et les industriels habitués à déployer des outils maison sur des HPC conçus à façon pour des usages spécifiques. Ces acteurs pourraient lui préférer de nouveaux venus comme SambaNova Systems ou bien les plateformes de data science d’AWS, d’Azure ou de GCP pour les applications les moins critiques.

Pour approfondir sur Intelligence Artificielle et Data Science

Close