PC : Dell dévoile une gamme pour l’IA de pointe sur le bureau

Les nouvelles stations portables Dell Pro Max AI devraient arriver d’ici à la fin de l’année avec la capacité d’utiliser gratuitement, sans passer par le cloud, des LLM de 30 à 109 milliards de paramètres, selon la configuration.

Après les stations de travail surpuissantes pour créer des contenus à la souris, voici venue l’ère des stations d’IA pour générer des contenus à partir de prompts. À l’occasion de son événement annuel, Dell a dévoilé les prototypes de ses futurs PC portables Dell Pro Max AI.

Présentées pour le moment dans un unique format 18 pouces encombrant, ces machines embarquent une carte fille d’accélération qui dispose de sa propre mémoire. Cette carte fille contient soit un GPU RTX Pro 5000 de Nvidia, soit un ou deux NPU Cloud AI 100 de Qualcomm. Dell parle de 64 Go de mémoire dédiés. Selon les documentations techniques de Qualcomm, c’est le cas pour la version avec deux NPU, tandis que la version en un seul NPU n’a que 32 Go de RAM. Selon celles de Nvidia, la RTX Pro 5000 a plutôt 48 Go de RAM GDDR7, mais une extension de 16 Go est possible.

« L’enjeu est de pouvoir faire intensivement de l’IA générative depuis son poste de travail, en toute autonomie, sans passer par un service en cloud », dit Tyler Cox, l’expert de Dell qui fait la démonstration des machines sur un stand dédié. Il pointe les deux défauts des services en cloud. Ils sont payants à partir d’une certaine quantité de tokens. Et ils exposent les efforts d’ingénierie d’un salarié sur une plateforme publique, en dehors des verrous de sécurité de l’entreprise.

LeMagIT avait précédemment évalué qu’une solution locale permet par exemple de soumettre gratuitement à l’IA des prompts de plusieurs milliers de tokens. Cela sert à lui enseigner dans les moindres détails une pratique métier complexe et, dans le même temps, à lui demander de l’appliquer sur un important lot de données. Nous avions pris l’exemple de la rédaction automatique d’un article selon nos standards à partir de la retranscription d’une interview audio d’une heure.

« Vous avez un catalogue depuis lequel vous pouvez télécharger des LLM et un chatbot qui vous permet d’utiliser localement ce LLM, en tapant des prompts et en lui soumettant vos documents. »
Tyler CoxExpert de Dell

« Pour accompagner ces machines, Dell lance dès à présent la suite logicielle Dell Pro AI Studio. Il s’agit d’une suite d’outils assez simples : vous avez un catalogue depuis lequel vous pouvez télécharger des LLM et un chatbot qui vous permet d’utiliser localement ce LLM, en tapant des prompts et en lui soumettant vos documents » présente l’expert de Dell. Ces outils sont similaires à des logiciels communautaires comme LM Studio ou Ollama, mais leur interface est plus léchée.

Les LLM téléchargeables gratuitement sont classiquement Gemma (la version communautaire de Google Gemini), Llama de Meta, Claude d’Anthropic, ou encore Mistral. A priori, tous ceux disponibles sur la plateforme Hugging Face, dont DeepSeek, devraient être utilisables sur les machines de Dell. Tous ces LLM existent en différentes versions, avec plus ou moins de paramètres encodés sur plus ou moins de bits dans leur base de connaissance. Plus il y a de paramètres, plus il y a de connaissance, moins il y a de bits, moins les connaissances sont précises.

Des cas d’usage différents selon l’accélérateur

Selon Dell, ces PC supporteraient d’utiliser des LLM jusqu’à 109 milliards de paramètres. Pour en faire tenir autant dans 64 Go, il s’agit nécessairement de paramètres stockés avec une résolution de 4 bits. Seul le GPU de Nvidia supporte de travailler dans ce mode. Les NPU de Qualcomm utilisent des tokens vectorisés sur 8 bits, la version en deux NPU avec 64 Go de RAM supporterait donc des LLM d’une cinquantaine de milliards de paramètres. Celle avec un seul NPU serait en toute logique limitée à une petite trentaine de milliards de paramètres.

Les NPU sont des puces accélératrices pour les calculs matriciels ; leur avantage est de mieux comprendre la signification des prompts pour mieux sélectionner dans la base de connaissance (le LLM) des éléments de réponse pertinents. Les GPU sont quant à eux conçus pour accélérer le calcul de coordonnées vectorielles. Appliqués aux PC de Dell, les NPU devraient servir à générer des contenus plus précis, tandis que les GPU en généreraient des plus variés.

Il est notable que ces PC ne partagent pas leurs mémoires entre les différents circuits. Le processeur central, a priori un Core Ultra d’Intel, avec 16 ou 24 cœurs, s’accompagne d’un maximum de 256 Go de RAM qui lui sont dédiés. Cela signifie que le processeur ne peut pas directement collaborer avec son accélérateur. Il faut attendre que l’IA ait fini de générer un contenu pour le copier dans la RAM du processeur et en faire autre chose.

Cette approche est très différente de celles de HP, dont les stations s’appuient sur la puce AMD Ryzen AI Max, ou d’Apple, avec le Silicon M qui anime ses Mac. Chez eux, tous les cœurs CPU, GPU et NPU sont dans le même SOC et accèdent en même temps aux mêmes données aux mêmes adresses mémoires. Dans ce cas, les circuits collaborent en permanence pour améliorer la précision et la rapidité.

De prime abord, l’approche de Dell, avec beaucoup plus de mémoire globale, devrait permettre d’utiliser des IA savantes en conjonction d’autres applications assez lourdes, comme celles utilisées dans les arts graphiques. Chez HP ou Apple, les machines bénéficient de designs 14 pouces plus faciles à transporter, mais leur RAM de 128 Go, partagée à seulement 75 %, impose a priori bien plus de compromis. Comme ne pas pouvoir utiliser en même temps une IA performante et l’application graphique ou d’ingénierie qui a besoin du contenu généré. Ou alors, utiliser les deux en même temps avec une IA moins créative.

« Chaque architecture sera plus adaptée à un cas d’usage. Mais pour être honnêtes, nous n’avons pas encore, à ce stade, de benchmarks qui chiffrent les avantages de telle ou telle approche », commente Tyler Cox, en rappelant qu’il ne présente là que des prototypes.

« Par exemple, nous savons que nous avons des possibilités de designs différents dans la version NPU Cloud AI 100, car la puce ne consomme que 75 watts [contre 175 à 300 watts pour la puce RTX Pro 5000, N.D.R.], soit très peu par rapport à toutes les autres approches », ajoute-t-il. S’il se défend de pronostiquer quoi que ce soit, son affirmation suggère que Dell pourrait lancer des machines en 14 pouces avec un seul NPU.

Puissance de traitement contre économie d’énergie

Les cartes RTX Pro 5000 et 6000 sont présentées par Nvidia comme des GPU de la dernière génération Blackwell. Même si elles ont moins de cœurs que les B200 et B300 des serveurs, leur consommation d’énergie reste élevée du fait d’une gravure sur les anciennes chaînes de production en 5 nm du fondeur TSMC.

En revanche, ces chaînes de production étant plus éprouvées que les chaînes en 3 nm qui servent à fabriquer les versions serveur, les RTX Pro ne devraient pas souffrir de pénurie et leur coût devrait maintenir les Dell Pro Max AI dans une enveloppe de prix raisonnable. Pour des stations de travail.

La carte Qualcomm Cloud AI 100 de Nvidia était précédemment utilisée par Dell comme une carte PCIe d’accélération d’inférence sur ses serveurs de bureau. Dell met en œuvre dans ce scénario une carte qui comporte quatre puces, soit un total de 128 Go de RAM (4 x 32 Go) et 64 cœurs (4 x 16).

Dell présente dès le départ cette technologie comme très économe en énergie. On se doute cependant que la simple mémoire DDR associée et les huit canaux PCIe utilisés, au lieu de la 16 sur la version RTX Pro, aboutiront à des performances moindres par rapport à la carte d’accélération de Nvidia.

La nouvelle suite de logiciels Dell Pro AI Studio n’est pas limitée aux portables Dell Pro Max AI. Elle fonctionne aussi sur les portables 14 pouces du constructeur à base de processeurs Intel Core ou Qualcomm SnapDragon X (ARM). Ces machines partagent un seul pool de RAM entre leurs circuits.

Pour autant, il ne s’agit pas ici d’une situation aussi favorable que sur les stations HP ou les Mac, car chacun des circuits est le seul à pouvoir accéder à la zone mémoire dans laquelle il travaille. En pratique, cela signifie que ces machines sont utilisables avec des LLM qui ont bien moins de paramètres, sans doute 8 à 13 milliards.

Depuis le début de l’année, Dell a changé la dénomination de ses PC portables. Les marques historiques Lattitude, Inspiron, Precision et XPS cèdent ainsi la place aux Dell Pro, Dell Pro Max et, donc, Dell Pro Max AI.

Pour approfondir sur Hardware IA (GPU, FPGA, etc.)