Nvidia accélère son offre datacenter

Désormais leader dans l’accélération des calculs dédiés à l’IA, Nvidia affermit sa position dans les datacenters avec un nouveau processeur, un nouveau contrôleur, des designs avec AWS et même un simulateur quantique.

« Les modèles pour l’IA ont un besoin exponentiel de données, par exemple dans le domaine de la reconnaissance du langage. Le nombre de paramètres à prendre en compte est doublé tous les 2,5 mois. À ce rythme-là, les modèles comporteront cent mille milliards de paramètres d’ici quelques années », lance Paresh Kharya, en charge de la division Accelerated Computing chez Nvidia. Selon lui, le problème à cette échelle n’est plus seulement la puissance des GPU, mais le goulet d’étranglement qui se forme quand il communique avec le processeur principal : quatre GPU agrégés délivrent 8 000 Go/s de données alors qu’un CPU ne peut communiquer avec sa mémoire qu’à la vitesse de 200 Go/s).

Suite de l'article ci-dessous

Nouveau processeur ARM : le Grace

Partant de ce constat, Nvidia a imaginé une solution : le processeur Grace. Adapté aux datacenters spécialisés dans l’IA, le processeur Grace communique à 900 Go/s avec le GPU et à 600 Go/s avec un autre processeur Grace. La bande passante mémoire promise – Grace sera disponible en 2023 – est de 500 Go/s. Ce processeur serait par ailleurs dix fois plus efficace d’un point de vue énergétique. Grace sera un processeur ARM ; il reposera sur l’évolution de cette architecture qui doit, elle aussi, sortir vers 2023.

Cette arrivée sur le marché des processeurs pour datacenters est d’ores et déjà contractualisée. Le Swiss National Supercomputer Center, ainsi que le laboratoire national de Los Alamos (dépendant du département de la Défense américain) vont adopter Grace dans leurs prochains centres de calcul. Le supercalculateur suisse Alps devrait avoir une puissance de 20 Exaflops ; il servira aux recherches sur le climat et sur les sciences des matériaux. La construction de ce supercalculateur s’effectuera en collaboration avec HPE.

Du réseau, du cloud et même de l’ordinateur quantique

Sur l’élan du processeur Grace, Nvidia compte affermir sa position dans les datacenters avec une nouvelle version 3.0 de son contrôleur DPU (Data Processing Unit) pour le stockage et le réseau. Appelée Bluefield 3, cette puce s’appuiera sur seize cœurs ARM A78 pour transférer les données à la vitesse de 400 Gbit/s. Outre sa bande passante, la nouveauté de Bluefield 3 sera une meilleure prise en charge de la sécurité. Parmi les fabricants de serveurs, Dell, Inspur, Lenovo et Supermicro ont déclaré qu’ils intégreraient Bluefield 3 dans la prochaine génération de leurs machines.

Nvidia compte aussi collaborer avec des fournisseurs de cloud, en premier lieu AWS. Avant la fin de l’année, une offre couplée entre Graviton 2 (le processus ARM d’AWS) et les GPU Nvidia verra le jour. En revanche, point de supercalcul ici : cette offre est censée servir les fournisseurs de jeux en ligne.

Enfin, ce n’était sans doute pas l’annonce la plus prévisible, mais Nvidia aborde le sujet de l’ordinateur quantique. Pas d’un point de vue matériel, mais sous forme de bibliothèques logicielles pour évaluer la programmation d’une telle machine, en exploitant les capacités des GPU Nvidia. « Pour qu’un ordinateur quantique ait vraiment un intérêt, plusieurs millions de qubits sont nécessaires. Les chercheurs progressent, doublant le nombre de qubits chaque année, mais sont encore loin du compte », estime Jensen Huang, fondateur et PDG de Nvidia, pour expliquer le rôle vital des simulateurs quantiques. Selon ses dires, la bibliothèque CuQuantum aurait permis de simuler le circuit quantique Sycamore de Google et d’y exécuter un algorithme en 9 minutes, contre 14 minutes pour les simulateurs d’Alibaba.

Pour approfondir sur HPC

Close