PDG de Nvidia : « nous atteindrons un CA de 1000 milliards de dollars en 2027 »

En marge de la conférence annuelle GTC 2026, Jensen Huang s’est livré en comité réduit à des confidences sur sa stratégie et ses objectifs. Selon lui, 2026 est l’année charnière entre l’entraînement des IA en cloud et son inférence sur les sites des entreprises.

Nvidia sera la première entreprise à atteindre un chiffre d’affaires annuel de 1000 milliards de dollars rien qu’en vendant des équipements pour l’IA. Telle a été la déclaration la plus stupéfiante de Jensen Huang, le patron de Nvidia, lors du discours d’ouverture de la conférence GTC 2026 qui s’est tenue la semaine dernière à San José, dans le sud de la Silicon Valley.

Pour atteindre cet objectif, Nvidia change son fusil d’épaule. De fournisseur de puces, il se métamorphose en fabricant de serveurs d’IA, en marque blanche. Ses clients étaient majoritairement des hyperscalers qui déploient ses GPU pour revendre par-dessus des services d’IA en ligne. Nvidia affirme qu’il va désormais soutenir de toutes ses forces les installations privées, en forte demande.

Ce faisant, il devrait favoriser les affaires des fournisseurs d’équipements pour datacenters, lesquels perdent depuis des années des clients au profit du cloud public. Mais plus question de leur vendre des puces pour qu’ils fabriquent eux-mêmes des serveurs, des baies de stockage, des switches réseau. Nvidia veut qu’ils se contentent de poser leur logo sur des cartes mères clés en main qu’il conçoit lui-même.

Mais le marché peut-il véritablement abandonner l’ingénierie maison, dont chaque marque se flatte pour se différencier de la concurrence ? Un point technique, notamment, interroge : alors que Nvidia a toujours prétendu avoir conçu les meilleurs semiconducteurs pour faire fonctionner les IA, la solution la plus inédite annoncée lors de ce salon est basée sur la puce de quelqu’un d’autre : le LPU de Groq.

Jensen Huang a livré, lors d’une session en comité réduit, des éclaircissements sur sa stratégie.

L’objectif de Groq : vendre 25% de machines en plus

Le lancement de configurations basées sur la petite puce d’inférence LPU, mise au point par la startup Groq et récupérée par Nvidia sous le nom de Groq-3, a brouillé le message du fournisseur. Cela signifie-t-il qu’il reconnaît que ses GPU historiques, dont Rubin est la dernière incarnation, ne sont en vérité pas efficaces pour l’inférence ?

« Ce n’est absolument pas ce que cela signifie, au contraire ! », a commencé le patron de Nvidia, en constatant que ce point interrogeait particulièrement son auditoire.

« Depuis l’année dernière, avec l’introduction de NVLink-72 pour la mise en réseau direct de 72 GPU et celle de l’encodage NVFP4 en 4 bits, nos GPU sont devenus les rois de l’inférence ! Aujourd’hui, utiliser un cluster de GPU Rubin pour l’inférence vous apportera des performances /watt 50 fois meilleures [que celles d’un cluster de x86, N.D.R.] ou, dit autrement, vous coûtera 35 fois moins d’énergie à performances égales. Les machines basées sur nos GPU sont celles qui produisent le plus de tokens par minute et celles où les tokens produits coûtent les moins chers », a martelé Jensen Huang.

« Mais à mesure que le marché de l’IA évolue, les LLM se subdivisent en différentes versions : les modèles légers, les modèles de grande taille, ceux de taille intérimaire, ceux spécialisés, etc. Certains modèles sont larges, ont une grande fenêtre de contexte et nécessitent une latence extrêmement faible. Nous pensons que pour atteindre cet objectif-là, la meilleure solution est de conjuguer nos GPU Rubin par des LPU Groq-3. Ces LPU seuls ne seront jamais meilleurs que nos GPU », a-t-il défendu.

« Cela dit, j’estime que cette configuration ne représentera que 25% des déploiements de serveurs Vera-Rubin. C’est-à-dire que dans 100% des cas, nous vendrons des configurations Vera-Rubin et un quart d’entre elles seront accompagnées de serveurs LPX dotés de LPU Groq-3. »

« La stratégie est que Groq apporte à nos solutions ce que Mellanox leur a apporté [rachetée en 2019, la technologie de Mellanox est à la base des différents réseaux qui interconnectent les puces de Nvidia, N.D.R.]. Parce que nous ne sommes pas là pour seulement fabriquer des GPU, nous sommes là pour construire une infrastructure complète », a-t-il ajouté.

1000 milliards et au-delà

Contre toute attente, le patron de Nvidia n’est non seulement pas revenu sur son objectif de chiffre d’affaires record pour 2027, mais il l’a même amplifié.

« 1000 milliards de dollars de revenu annuel sur nos ventes de matériel, cela représente uniquement la partie de notre activité sur laquelle nous avons une visibilité claire. C’est-à-dire les ventes de matériels Blackwell et Vera-Rubin. Mais en fait, si ma prédiction concernant Groq est exacte, vous aurez 25% des ventes de serveurs DGX Vera-Rubin qui rapporteront deux fois plus. Donc, pour vous dire le fond de ma pensée, en théorie, ce CA 2027 pourrait plutôt atteindre 1250 milliards de dollars » a-t-il lancé, face à une assistance médusée.

« Et encore. Je n’inclus pas notre nouveau système de stockage STX pour les KV-Caches. Nous avons réinventé le principe du stockage pour l’IA. Dell nous suit. Et tous les acteurs du stockage vont nous suivre » a affirmé Jensen Huang.

Sur ce dernier point, les analystes semblent le contredire. Eux prédisent plutôt qu’il se passera de longs mois avant que les fabricants historiques du stockage acceptent de remplacer leurs matériels par des équipements Nvidia sur lesquels ils n’auraient plus qu’à apposer leurs logos.

40% des revenus de Nvidia doivent se faire en dehors des hyperscalers

Dans son intervention en comité réduit, Jensen Huang s’est également laissé aller à quelques confidences sur la répartition de ses activités.

« 40% de notre activité consiste à vendre des plateformes complètes à des entreprises, à des clouds privés, à des industriels, à des constructeurs automobiles qui ne vont pas chercher dans le cloud public leurs infrastructures d’IA », a-t-il révélé, posant enfin un chiffre sur le pourcentage de sa production que préemptent les acteurs du cloud public. 60%, donc.

Selon lui, la demande pour des « usines d’IA privées » exploserait partout dans le monde et Nvidia souhaiterait désormais d’autant plus s’efforcer d’y répondre qu’il s’agirait d’une clientèle davantage susceptible de lui acheter des plateformes complètes. « Ce ne sont pas des gens à qui vous vendez seulement des puces », a-t-il insisté.

« C’est pourquoi notre activité est bien plus diversifiée que celle d’un fabricant de puces. Nous aidons des partenaires à construire des usines d’IA. Et c’est parce que nous le faisons que des compagnies comme Dell se portent aussi bien », vantant encore, avec un message à peine subliminal, l’intérêt d’acheter à Nvidia des machines prêtes à l’emploi sur lesquelles il n’y a plus qu’à apposer le logo d’une marque.

Faut-il comprendre dans ce revirement que les ventes de Nvidia auprès des hyperscalers auraient amorcé un déclin ? On ne le saura pas. Mais Jensen Huang en a profité pour mettre en avant les avantages des produits Nvidia :

« Concernant les hyperscalers, nous leur apportons des clients ! Parce que leurs clients développent leur IA avec notre plateforme logicielle Cuda. Et je vous le dis : OCI [le cloud public d’Oracle, N.D.R.] n’aurait jamais eu OpenAI comme client si leur infrastructure n’était pas capable d’exécuter du code Cuda », a-t-il affirmé en évoquant le projet Stargate.

Le patron de Nvidia préfère dire que l’année 2026 est surtout charnière dans le passage de l’ère de l’entraînement des IA, qui avait tout intérêt à se faire en cloud, à l’ère de l’inférence, qui concrétise l’IA sur site. Selon lui, la preuve la plus convaincante de cette bascule serait à chercher dans l’automobile :

« Après dix ans de mise au point, je suis convaincu que, désormais, la question des véhicules autonomes est résolue. Ça y est. Grâce à l’IA qui a été entraînée et qui fonctionne sur des équipements que nous avons vendus aux constructeurs automobiles. Et ces gens vont pouvoir désormais se lancer dans un business qui va générer des milliers de milliards de dollars », dit-il en précisant être persuadé que cet exemple va se répliquer à la vitesse du feu sur une traînée de poudre dans tous les domaines d’activité.

Des investissements qui interrogent toujours

Concernant les investissements que Nvidia a récemment faits dans les néoclouds CoreWeave, Nscale et Nubius, Jensen Huang a tenté de couper court à toute théorie de montage financier.

« Nous investissons juste dans des entreprises dont nous pensons qu’elles vont réussir. Nous le pensons parce que nous voyons déjà les trains d’opportunités qui se présentent à eux » a dit le patron de Nvidia, en expliquant que Meta, Azure ou encore Anthropic étaient susceptibles de louer de la puissance de calcul additionnelle auprès de ces acteurs. « Notre stratégie est d’investir dans l’écosystème, pour aider ses acteurs les plus agiles à croître plus rapidement. »

L’argument très marketing de « faire partie d’une aventure fantastique, qui rapporte déjà un retour sur investissement » a, selon les observations du MagIT, moyennement convaincu l’assistance.

En filigrane, on comprend que les hyperscalers historiques et les éditeurs de modèles d’IA arrivent au bout de la logique d’acheter eux-mêmes des GPU hors de prix qui deviennent rapidement obsolètes. Nvidia financerait donc de nouveaux venus pour qu’ils lui achètent ses puces et en louent l’usage à ses clients d’hier. Et il se rembourserait sur les dividendes que cette activité générerait.

Selon certains observateurs, le fait de toucher à la fois des revenus sur ses ventes de matériels, puis des dividendes sur leur recommercialisation, pourrait remplir suffisamment de lignes dans les prochains bilans comptables de Nvidia pour dynamiser son action en bourse. Au point de minimiser le coût initial de l’investissement dans des néoclouds. Le spectre de montages financiers risqués qui pourraient conduire à l’explosion d’une bulle en bourse n’est a priori pas écarté.

Pour approfondir sur Hardware IA (GPU, FPGA, etc.)