Nvidia peaufine sa suite AI Enterprise

Pour cette première mise à jour depuis la disponibilité générale de sa suite AI Enterprise, Nvidia soigne ses partenariats avec VMware, Domino Data Lab, Cisco et Hitachi Vantara. L’objectif, gonfler les fonctionnalités là où l’expertise du spécialiste des GPU fait défaut.

Après une V1 annoncée à la fin du mois d’août, Nvidia a actualisé son offre AI Enterprise ce mercredi avec la mouture 1.1.

La plateforme dispose désormais d’un support en production de VMware vSphere avec Tanzu, tandis que le spécialiste des GPU a certifié davantage de serveurs OEM et qu’il a établi un partenariat avec Domino Data Lab.

Intégration de Tanzu : Le partenariat Nvidia – VMware va bon train

La principale nouveauté tient dans le support officiel de Tanzu. Le fournisseur d’équipements et de logiciels d’IA assure que la prise en charge de cette gamme de produits de VMware donne aux data scientists et aux data engineers la flexibilité d’exécuter des charges de travail d’IA sur des conteneurs et des VM dans leurs environnements vSphere.

Alors que les utilisateurs de la suite Nvidia AI Enterprise ont accès à une variété d’outils sur VMware depuis le partenariat entre les deux entreprises en 2020, l’intégration de Tanzu manquait, selon Anne Hecht, directrice principale des produits d’entreprise chez Nvidia.

L’intégration complète avec Tanzu est une étape positive pour Nvidia et VMware, note de son côté Andy Thurai, analyste chez Constellation Research.

« Bien que Nvidia soit passé maître dans la gestion de [la] majorité des charges de travail modernes conteneurisées, il lui a été difficile de pénétrer dans les centres de données pour exécuter des workloads traditionnelles, traitées par des CPU », rappelle Andy Thurai.

Avec cet ajout, il s’agit de répondre à la promesse faite au lancement d’AI Enterprise : permettre aux entreprises d’exécuter leurs projets d’IA dans leurs data centers privés plutôt que les forcer à migrer vers le cloud.

Avec cet ajout, il s’agit de répondre à la promesse faite au lancement d’AI Enterprise : permettre aux entreprises d’exécuter leurs projets d’IA dans leurs data centers privés plutôt que les forcer à migrer vers le cloud.

« La gestion et la mise à l’échelle des clusters Kubernetes sont deux tâches monumentales qui nécessitent beaucoup de cycles d’ingénierie des données pour mettre en production les workloads d’IA », estime Andy Thurai. « La combinaison des vGPU, de la gestion vSphere des charges de travail d’IA à travers les conteneurs et les machines virtuelles, et de l’optimisation des unités de traitement de données Nvidia Bluefield pour les centres de données privés, en fait un environnement incontournable pour exécuter les charges de travail d’IA dans un mode véritablement hybride. »

Partenariat avec Domino Data Lab

Nvidia AI Enterprise 1.1 inclut également des fonctionnalités issues du nouveau partenariat du fournisseur avec le spécialiste des opérations de machine learning (MLOps) Domino Data Lab.

En accédant à la couche Domino Data Lab de la suite, les clients peuvent entièrement automatiser leurs MLOps, vante Anne Hecht.

De fait, la prise en charge de Tanzu et de Kubernetes était nécessaire pour sceller ce partenariat : la PaaS Domino repose sur Kubernetes.

Le système Domino offre aux entreprises une mise à l’échelle et un approvisionnement en libre-service des charges de travail et des clusters Kubernetes pour les équipes de data science. Il est également entièrement intégré à Tanzu et permet la collaboration entre les data scientists via la plateforme MLOps, selon Nvidia.

En clair, Domino propose une interface utilisateur permettant de configurer des instances à la manière des GUI des fournisseurs cloud.

Ensuite les data scientists et data engineers ont accès à un environnement de développement (workspace) dont la configuration commence par le choix d’un IDE (Jupyter, VSCode, RStudio, etc.). Puis, il s’agit de charger les données et de les explorer, d’entraîner les modèles, de les nettoyer ou de les optimiser avant de les déployer. Il est non seulement possible de surveiller les performances des modèles, mais aussi de bâtir des applications permettant de visualiser les prédictions.

Jusqu’alors, Nvidia proposait davantage une collection d’outils plutôt qu’une PaaS permettant d’unifier les différentes étapes nécessaires à la conception et la mise en production d’un algorithme de machine learning. D’ailleurs, la plateforme de Domino Data Lab est compatible avec les frameworks proposés par Nvidia (TensorFlow, MatpotLib, Pytorch), mais bénéficie également d’intégrations (en tout cas sur le papier) avec Amazon SageMaker, SAS, DataRobot ou H2O.

Le choix de s’associer à Domino Data Lab est particulièrement intéressant, car de nombreuses entreprises jouent sur le marché des MLOps, commente l’analyste de Constellation Research.

Selon Anne Hecht, Nvidia a choisi Domino Data Lab parce qu’il intègre et prend déjà en charge la plateforme DGX.

Deux serveurs OEM supplémentaires

Les entreprises qui utilisent la suite AI Enterprise peuvent désormais choisir deux autres serveurs certifiés par Nvidia : Cisco et Hitachi Vantara.

Il s’agit du Hitachi Advanced Server DS220 G2 (format 2U, 2 Intel Xeon 3e gen, jusqu’à 4 To de RAM RDIMM ou jusqu’à 8 To de RAM Intel Optane PMEM, jusqu’à 24 slots NVMe/SATA ou SAS, jusqu’à 4 slots PCIe gen 4, GPU NVIDIA A100).

Le second n’est autre que le rack Cisco UCS C240 M6 (format 2RU, 1 ou 2 Intel Xeon 3e gen, jusqu’à 8 To de RAM DIMM ou jusqu’à 12 To de RAM avec Intel Optane PMEM, jusqu’à 24 slots SATA/SAS ou NVMe, jusqu’à 8 slots PCIe gen 4, GPU Nvidia A10 24 Go GDDR6 ou A100 40 Go HBM2).

Le prix de la suite Nvidia AI Enterprise varie de 2 000 $ par socket CPU à 8 090 $ par socket CPU, en fonction de la durée de l’abonnement et du support de la licence. Les entreprises devront payer des frais supplémentaires à la fois pour les serveurs et pour la plateforme Domino Data Lab. 

Pour approfondir sur Intelligence Artificielle et Data Science

Close