GTC2025 : Nvidia prétend s’intéresser au quantique
Le fabricant numéro 1 des puces pour supercalculateurs a mis en lumière l’ordinateur quantique lors de sa conférence GTC. Le public n’a pas nécessairement compris s’il s’agissait de promouvoir ou de minimiser la technologie.
Lors de la conférence GTC2025 de Nvidia qui vient de se tenir à San José, dans la banlieue de San Francisco, un invité s’est frayé un chemin parmi les annonces de nouveaux GPU pour accélérer l’IA : l’ordinateur quantique. Jensen Huang, le PDG de Nvidia a invité pas moins de douze entreprises sur scène, dont les Français de Pasqal, pour, selon lui, faire mieux connaître à ses clients la prochaine extension de leurs supercalculateurs.
Pour autant, le rendez-vous a davantage servi à ranger l’informatique quantique au rang du faire-valoir qu’à la mettre en avant.
Stratégiquement, se positionner sur l’ordinateur quantique permet à Nvidia d’occuper un terrain récemment saturé d’annonces par les hyperscalers, lesquels sont à la fois ses plus gros partenaires, mais aussi des concurrents qui développent désormais leurs propres GPU. Cela dit, le constructeur marche sur des œufs : promouvoir l’ordinateur quantique suggère qu’il existe quelque chose de plus performant que ses GPU.
« Les gens s’attendent à ce que l’on puisse remplacer un ordinateur classique par un autre, de nature quantique. Ce n’est pas le cas. Il s’agit de machines très spécialisées que l’on peut utiliser parallèlement aux CPU et aux GPU, pour des tâches spécialisées. »
Loïc HenrietPDG, Pasqal
« Alors, attention. Le terme ordinateur quantique est trompeur, car les gens s’attendent à ce que l’on puisse remplacer un ordinateur classique par un autre, de nature quantique. Ce n’est pas le cas », s’est empressé de préciser Loïc Henriet, PDG de Pasqal. « Il s’agit de machines très spécialisées que l’on peut utiliser parallèlement aux CPU et aux GPU, pour des tâches spécialisées. »
A priori, un ordinateur quantique ne peut fonctionner qu’accolé à un supercalculateur, vendu avec des GPU Nvidia. Mais pas question non plus de laisser entendre qu’il pourrait servir à acheter moins de GPU.
« Il n’y a aucune raison de croire qu’un petit ordinateur quantique peu performant branché sur un ordinateur conventionnel incroyablement performant va améliorer les calculs », a lancé dans la foulée Pete Shadbolt, cofondateur et directeur scientifique de PsiQuantum, évitant ainsi qu’on lui demande le facteur d’accélération que son ordinateur quantique à base de photons apporterait à un cluster Nvidia DGX déjà rempli avec 72 GPU.
Un ordinateur quantique pour consommer moins
En l’espèce, la faculté d’un ordinateur quantique à piocher automatiquement la bonne réponse à un problème, sans perdre de temps à tester toutes les possibilités, semble orienter cette catégorie de machines vers des résolutions de type « parcours le plus rapide », ou « parcours le plus économe ». Ces problématiques peuvent aider à optimiser la production d’électricité sur un réseau de centrales, ou à trouver des assemblages de molécules plus fiables.
Surtout, ces problématiques restent finalement dans le champ de compétences des ordinateurs classiques. Mais un ordinateur quantique consommerait moins d’énergie pour les résoudre qu’un supercalculateur. Il faut compter 7 à 8 kWh pour une cuve cryogénique qui déduit un résultat. Résultat qu’un cluster DGX aurait calculé plus rapidement, mais moyennant 120 kWh.
« Il y a des problèmes de calcul difficiles qui sont hors de portée de l’informatique classique. »
Alan BaratzPDG, D-Wave Systems
Rajeeb Hazra, PDG de Quantinuum, témoigne que ses clients utilisent aujourd’hui son ordinateur quantique à base d’ions piégés pour développer de meilleurs réfrigérants, produire plus efficacement de l’hydrogène à partir de l’eau et lier de courtes chaînes d’acides aminés pour remplir certaines fonctions biologiques. Quantinuum est le descendant d’Honeywell Quantum Solutions, un acteur issu de l’industrie classique qui a surtout travaillé sur la protection des qubits contre les « bruits » environnants qui faussent les calculs.
« À l’avenir, l’informatique quantique pourrait contribuer à résoudre des problèmes liés à la découverte de médicaments, à la modélisation météorologique et à la recherche sur les propriétés des matériaux », a de son côté déclaré Alan Baratz, PDG de D-Wave Systems. « Il y a des problèmes de calcul difficiles qui sont hors de portée de l’informatique classique », a-t-il insisté. Toute l’assistance a manifestement fait le lien avec les récentes critiques essuyées par D-Wave, selon lesquelles son ordinateur quantique ne serait performant que sur les calculs qu’il ne faut jamais faire.
Un certain décalage avec l’IA
« Oui, mais pour accélérer l’IA ? » s’est rapidement demandé le public, accessoirement venu à la GTC2025 dans le but d’acheter de nouveaux GPU pour réduire les durées d’entraînements des LLM (comme le temps de leurs réponses).
Les panélistes se sont accordés à répondre que, pour arriver à faire de l’IA, il faudrait déjà parvenir à construire des processeurs quantiques dotés d’un million de qubits. Or, depuis les premiers prototypes en 1998, IBM, l’acteur le plus en avance dans le domaine, n’a assemblé, au mieux, que 433 qubits. Quantinuum, qui revendique le talonner, propose… 32 qubits. « Mais de haute qualité », précise Rajeeb Hazra. Google, qui fait beaucoup parler de lui, a atteint 53 qubits.
Cela dit, IBM devrait créer l’événement plus tard cette année avec Kookaburra, un processeur quantique de 1 386 qubits, dont trois exemplaires pourraient travailler en réseau pour atteindre 4 158 qubits. L’assistance a compris qu’elle allait devoir prendre son mal en patience.
Jensen Huang est intervenu pour dire qu’il avait organisé ces réunions en partie pour faire son mea culpa. En janvier dernier, le PDG de Nvidia avait en effet déclaré à un journaliste qui l’interviewait que, selon lui, les acteurs de l’ordinateur quantique allaient « encore passer au moins 15 ans ou 30 ans avant de savoir comment exploiter les particules subatomiques pour traiter les données à des vitesses intéressantes ». Sa remarque aurait immédiatement fait chuter les actions en bourse de plusieurs de ces acteurs.
« Je ne savais pas qu’ils étaient cotés en bourse ! Comment une entreprise d’informatique quantique peut-elle être cotée en bourse ?! », s’est excusé Jensen Huang, plus à l’attention de son auditoire que de ses convives.
Il a néanmoins tenté de justifier sa position : reconnaître qu’une technologie n’en est qu’à ses balbutiements présenterait l’avantage de minimiser les attentes du public envers elle. Lui-même aurait pu développer Nvidia vers ce qu’il est aujourd’hui, car ses concurrents potentiels ne voyaient dans son entreprise qu’un fournisseur de puces pour jeux vidéo. On ignore comment les intéressés ont accueilli ces excuses.