
Datacenters IA : OpenAI va acheter pour 6 GW de GPU à AMD
L’éditeur de ChatGPT s’était précédemment engagé à acheter l’équivalent de 10 GW de puissance électrique en GPU au concurrent Nvidia. La dépense totale en puces d’IA est estimée à 500 milliards de dollars. Une somme qu’OpenAI n’a pas.
Malgré tous les efforts de Nvidia pour noyauter les hébergeurs de services de calcul, OpenAI, l’éditeur de ChatGPT, vient de négocier l’achat d’une très grande quantité de GPU AMD pour certains des datacenters Stargate qu’il fera construire dès le second semestre 2026. La seule quantité officiellement exprimée est la puissance électrique totale consommée par les puces achetées : 6 gigawatts.
Le communiqué d’OpenAI évoque des GPU Instinct MI450X, une puce dont AMD n’a pas encore lancé la production chez TSMC. Rivalisant avec le futur GPU Rubin de Nvidia, le MI450X est censé être gravé avec une finesse de 3 nm, intégrer 288 Go de mémoire HBM4, offrir une puissance de calcul de 50 Pétaflops (milliers de milliards d’opérations par seconde) en 4 bits et consommer jusqu’à 2 kW. Les 6 GW de puissance électrique annoncés correspondraient donc à 2 millions de GPU. Soit l’équivalent d’une production annuelle de GPU AMD haut de gamme chez TSMC.
Sachant qu’OpenAI avait précédemment évoqué un coût de 90 milliards de dollars pour 2 GW de puissance électrique avec des GPU Nvidia et en partant du principe que les GPU d’AMD coûtent environ 40% moins cher, il est raisonnable d’estimer ce contrat à un peu plus de 160 milliards de dollars. Rappelons que, pour l’heure, le chiffre d’affaires annuel d’OpenAI est de seulement 12 milliards de dollars ; l’éditeur espère atteindre les 13 mds $ à la fin de l’année 2025.
Un bâtiment de datacenter dernier cri, construit pour héberger des calculs d’IA, atteint environ 200 MW de puissance électrique et un campus type héberge six de ces bâtiments. Les GPU d’AMD pourraient donc être déployées dans le monde sur une quantité de sites comprise entre cinq campus et trente bâtiments.
AMD a annoncé qu’il allait mettre au point d’ici au second semestre 2026 un design de cluster de calcul prêt à être installé, équivalent au cluster DGX de Nvidia. Le sien s’appelle IF et il existerait en deux versions : l’une mettant en réseau 64 GPU MI450X et l’autre 128, respectivement sur une et deux étagères rack. Chaque datacenter devrait donc contenir un millier de ces étagères rack.
Mais où OpenAI va-t-il trouver l’argent pour acheter autant de GPU ?
Concernant le volet financier de l’opération, AMD a manifestement négocié la fourniture en priorité de ses GPU MI450X contre une entrée d’OpenAI à son capital à hauteur de 10%, ce qui représente une dépense supplémentaire d’environ 27 milliards de dollars pour l’éditeur.
De manière assez ironique, Nvidia avait réussi, il y a deux semaines, à engager OpenAI à lui acheter l’équivalent de 10 GW de puissance électrique en GPU, également à partir du second semestre 2026, en échange d’un « don » de 100 milliards de dollars. Don qu’il faut plutôt interpréter comme une ristourne. Pour finir, ce contrat, déjà jugé immense par rapport aux capacités financières d’OpenAI – il est estimé à environ 350 milliards de dollars après la ristourne - n’a pas empêché l’éditeur d’aller aussi acheter 60% de GPU en plus chez AMD. Pour une dépense totale qui devrait donc dépasser les 500 milliards de dollars.
Selon Reuters, la somme que certains employés d’OpenAI ont réussi à tirer la semaine dernière de la vente de leurs actions en bourse valorise aujourd’hui virtuellement OpenAI à hauteur de 500 milliards de dollars, justement. Mais l’éditeur n’a pas 3% de cet argent en banque. La question est donc de savoir si l’éditeur va parvenir à miser sur cette spéculation pour trouver les fonds nécessaires à l’achat de tous ces GPU, ou si une bulle financière est sur le point d’éclater.
Notons toutefois une certaine cohérence : 500 milliards de dollars étaient la somme initialement annoncée par la Maison-Blanche à l’époque, c’est-à-dire en janvier - où elle pensait que le projet de datacenters Stargate correspondrait à un plan national visant à asseoir la suprématie des USA en matière d’IA. Sam Altam, le patron d’OpenAI, avait donc déjà parfaitement chiffré ses dépenses à venir.
Entretemps, on a appris que Stargate était plutôt le nom du projet d’OpenAI de construire ses propres datacenters partout dans le monde pour s’émanciper de son hébergeur Microsoft Azure. Problème, les investisseurs susceptibles de financer la suprématie des USA sont, semble-t-il, aux abonnés absents pour financer celle d’OpenAI. D’autant plus que les fonds promis par Softbank et Oracle sont, comme les dons de Nvidia, des avantages en nature plutôt que des espèces sonnantes et trébuchantes.
Pour approfondir sur Processeurs et composants
-
Nvidia : l’étrange investissement de 100 milliards à la faveur d’OpenAI
-
VMware Explore 2025 : VCF 9 devient une infrastructure pour l’IA
-
AMD et Nvidia reverseront 15 % de leurs revenus engrangés en Chine à l’Administration américaine
-
Gpt-oss : six ans après GPT-2, OpenAI dégaine ses modèles « open weight »