GTC 2026 : Nvidia met la puissance de ses serveurs dans une station

La nouvelle DGX Station est une machine qui tient dans un boîtier tour ATX et qui est censée permettre à une équipe de faire localement, sans frais supplémentaires, tout ce qu’elle ferait en ligne avec des services d’IA exécutés sur serveur DGX GB300.

Après la mini machine de bureau DGX Spark annoncée il y a un an, mais commercialisée uniquement depuis la rentrée dernière, Nvidia a présenté lors de son salon GTC 2026 une nouvelle configuration personnelle censée servir à développer ou utiliser des IA sur site : la DGX Station. Cette fois-ci au format tour, la machine embarque un processeur ARM Grace et un GPU B300, soit exactement les mêmes composants que ceux qui équipent les serveurs DGX que Nvidia vend actuellement aux hyperscalers.

« Cette machine est ouvertement destinée aux data-scientists en entreprise, qui ont besoin de tester des IA et des processus d’IA avant de les mettre en production sur des clusters de calculs qui n’ont pas à être utilisés pour des expérimentations », explique Charlie Walker (en photo en haut de cet article), le directeur chez Dell de la division dédiée aux PC spéciaux – soit les PC durcis et cette station Nvidia.

« La bonne nouvelle est que tout ce qui fonctionne sur cette station fonctionnera exactement de la même façon sur un serveur DGX doté d’un processeur Grace et d’un GPU Blackwell », ajoute-t-il.

« En fait, les usages d’une telle machine sur site sont encore à expérimenter. »
Charlie WalkerHead of product, station de travail Dell Pro Max (Precision) et ordinateurs durcis

Dell assure qu’il est le premier à commercialiser cette machine dès aujourd’hui aux USA et d’ici au mois prochain en France.

Le B300 embarque une mémoire HBM de taille phénoménale pour un PC : 288 Go. Le processeur Grace s’accompagne d’une mémoire LPDDR5X encore plus impressionnante : 496 Go, soit un total de 784 Go. La LPDDR5X offre une bande passante de 396 Go/s. La HBM grimpe à 7,1 To/s. Le bus NVLink C2C qui relie les deux puces offre 900 Go/s. Du jamais vu sur un bureau.

On trouve par ailleurs trois slots PCIe 5.0, dont un pour brancher une carte graphique. Parce que, par défaut, cette machine est surtout conçue pour s’utiliser en SSH (elle fonctionne sous Ubuntu, renommé ici DGX OS), c’est-à-dire depuis le réseau, par toute une équipe.

« En fait, les usages d’une telle machine sur site sont encore à expérimenter. Il est probable qu’elle ne se limitera pas aux data-scientists. Dans un studio d’animation, par exemple, elle pourrait servir à finaliser toute seule les textures que vous voulez peindre sur vos éléments. Dans un bureau d’études, vous diriez à l’IA d’exécuter une simulation en respectant telles contraintes, puis vous lui demanderiez simplement de recommencer en changeant tel matériau, tel agencement », illustre Charlie Walker.

NemoClaw, la « killer-app » des machines DGX

À ce propos, une application particulièrement mise en valeur lors de ce salon GTC 2026 est l’agent d’IA Open source OpenClaw. Au point que le fournisseur en a dévoilé une version propriétaire, baptisée NemoClaw.

« OpenClaw est la nouvelle étape Open source majeure qui structure l’industrie des logiciels, après Linux, HTML et Kubernetes. Chaque entreprise qui a besoin d’une stratégie de systèmes agentiques, a en réalité besoin d’une stratégie OpenClaw » a lancé Jensen Huang, le patron de Nvidia, lors de son discours d’ouverture.

Conçu pour s’utiliser sur une machine personnelle, OpenClaw se présente comme une passerelle entre une application de messagerie (par exemple WhatsApp où il apparaîtra comme un contact virtuel), les applications installées sur le disque local (qu’il sait utiliser via des fichiers d’instructions skills.md) et des modèles d’IA partagés par des outils locaux comme Ollama ou LM Studio.

L’utilisateur envoie un prompt au contact virtuel dans WhatsApp et OpenClaw fait décoder ce prompt par le modèle d’IA indiqué dans sa configuration. Si la requête nécessite de faire fonctionner une application sur le disque dur, par exemple un navigateur web, un client e-mail, etc., OpenClaw télécharge tout seul la méthode qui lui explique comment s’en servir, exécute l’application, récupère le résultat et le passe à nouveau au LLM, pour qu’il génère une réponse définitive ou juste intermédiaire.

Tout se passe en local, sans aucun token facturé par un service en ligne. Sauf si l’utilisateur demande explicitement d’utiliser des services en ligne. Dans ce cas, OpenClaw se chargera de créer (ou de demander) une clé API pour ce service et la conservera sur le disque local pour les usages futurs.

« Le problème d’OpenClaw est qu’il a accès à l’intégralité de votre disque dur, à l’intégralité de vos clés API et qu’il pose donc un énorme problème de sécurité. C’est pour remédier à cela que nous avons créé NemoClaw. »
Jensen HuangCEO, Nvidia

Les utilisations de base comprennent la récupération de données sur disque ou en ligne (un modèle local ne sait pas naviguer sur Internet tout seul) pour dresser des veilles quotidiennes, générer des rapports en PDF ou en tableaux Excel, ou encore créer des contenus qui peuvent aller de posts multidiffusés sur des réseaux sociaux à des romans, des illustrations ou des vidéos.

Les utilisations avancées seront le déclenchement de tout un processus. Citons l’écriture d’articles à partir d’interviews enregistrées sur dictaphone, la production de recommandations métiers à partir d’éléments produits par une multitude de sources, ou encore la mise en ligne d’applications à partir d’un code Python, en y apposant des contraintes de sécurité et après lui avoir fait passer une batterie de tests.

Plusieurs comptes GitHub référencent des exemples d’utilisations possibles avec tous les prompts à taper pour y parvenir. Citons Awesome OpenClaw Usecases d’Hesam Sheikh, par exemple.

« Le problème d’OpenClaw est qu’il a accès à l’intégralité de votre disque dur, à l’intégralité de vos clés API et qu’il pose donc un énorme problème de sécurité. C’est pour remédier à cela que nous avons créé NemoClaw » a précisé sur scène Jensen Huang. En clair, il s’agit davantage d’utiliser la DGX Station pour développer avec NemoClaw des processus OpenClaw qui ont vocation à devenir des services d’IA agentiques en cloud.

NemoClaw comprend un environnement d’exécution isolé OpenShell qui limite les droits d’accès de l’agent au strict nécessaire, des modèles d’IA libres recompilées pour les puces Nvidia et téléchargeables en local (famille de modèles Nemotron) et un tunnel de chiffrement pour connecter de manière sécurisée l’agent aux services en ligne.

NemoClaw fonctionne directement sur les machines DGX Spark, pour un utilisateur, et DGX Station, pour toute une équipe. « Tant qu’il s’agit de faire du développement, vous ne payez aucune licence à Nvidia, vous pouvez installer toute la pile logicielle Nvidia AI Enterprise gratuitement. C’est au moment où vous passerez le service que vous aurez créé en production, typiquement sur des serveurs DGX hébergés en ligne, que vous serez facturé. Et, en l’occurrence par Nvidia, pas par Dell », précise Charlie Walker.

Une carte mère Nvidia dans un boîtier Dell (ou autre)

Nvidia ne distribuera pas lui-même la DGX Station dans le commerce. Les fabricants de PC, dont Dell, sont invités à lui acheter des cartes mères complètes et à les revendre dans des boîtiers avec leur logo collé dessus. C’est d’ailleurs le thème de cette édition 2026 du salon GTC : Nvidia cesse d’être un fournisseur de puces pour les fabricants informatiques, il devient un fabricant de cartes mères pour des partenaires qui s’en tiendront à un rôle d’intégrateur.

« En gros, Nvidia a conçu une carte mère au format ATX et nous la vendons dans le boîtier Dell prévu pour les cartes mères ATX. »
Charlie WalkerHead of product, station de travail Dell Pro Max (Precision) et ordinateurs durcis

Charlie Walker précise : « en gros, Nvidia a conçu une carte mère au format ATX et nous la vendons dans le boîtier Dell prévu pour les cartes mères ATX. Cependant, nous avons ici conçu un système de refroidissement assez innovant », dit-il, en posant à côté d’une DGX Station que Dell va vendre sous le nom Dell Pro Max GB300.

En l’occurrence, la version de Dell est refroidie par liquide, avec les mêmes tuyaux et les mêmes plaques en cuivre que ceux que l’on trouve dans les serveurs pour datacenter dernier cri. 1500 watts de chaleur dégagée obligent. C’est un circuit fermé, pressurisé en usine, avec une pompe qui envoie le liquide serpenter sur le processeur, sur le GPU et aussi sur la puce réseau ConnectX-8, pour ne pas qu’elle perde des paquets quand elle expédiera des données sur un câble Ethernet à la vitesse de 400 Gbit/s. Ce système de refroidissement dont Dell est très fier aurait représenté le dépôt de 20 brevets. Il s’appelle MaxCool.

Les autres marges de manœuvre des intégrateurs concernent le support. On pourra ainsi mettre à jour le firmware de la machine depuis le site web de Dell et celui-ci pourra vendre des licences Ubuntu Pro afin de fournir de l’assistance et des mises à jour de sécurité au-delà de la période convenue pour la version préinstallée du système.

Précisons que la petite DGX Spark est désormais soumise au même régime : il n’est plus possible de l’acheter que chez un revendeur de PC, dans un boîtier différent pour chaque marque, alors que Nvidia la vendait lui-même jusqu’ici. Hélas, cela ne va rien changer en termes de tarif. Chez Dell, par exemple, la machine rebaptisée DGX Pro Max GB10 est proposée au prix de 5250 € TTC.

Dell n’a pas encore communiqué sur le prix de sa DGX Pro Max GB300. Mais certaines fuites en ligne évoquent un coût aux alentours de 100 000 €.

Pour approfondir sur Hardware IA (GPU, FPGA, etc.)