Patrick Daxenbichler - Fotolia
Infrastructures IA : encore un projet d’OpenAI dans l’impasse
L’éditeur de ChatGPT projetait de faire fabriquer par Broadcom une puce accélératrice d’IA rien que pour lui, qui équiperait un gigadatacenter de 10 GW de puissance électrique. Quelques mois après cette annonce, Broadcom découvre qu’OpenAI n’a pas l’argent.
Encore un projet démesuré d’OpenAI qui a du plomb dans l’aile. Alors que l’éditeur de ChatGPT annonçait en septembre dernier avoir passé un accord avec le fabricant de semiconducteurs Broadcom pour développer une puce IA à façon, le média américain d’investigation The Information révèle que les deux partenaires peinent à trouver un accord pour financer le projet.
Selon les premières estimations, OpenAI devrait débourser au moins 18 milliards de dollars pour acheter ces puces à Broadcom et construire le campus de calcul dans lequel il les installerait. La raison de ce coût est la décision du PDG d’OpenAI, Sam Altman, de construire un datacenter si gigantesque qu’il consommerait 10 GW de puissance électrique.
Malheureusement, OpenAI serait loin d’avoir des moyens à la hauteur des ambitions de son turbulent patron. Lors d’une récente réunion interne dévoilée par le Wall Street Journal, la directrice financière de l’éditeur aurait dit que son employeur ne serait vraisemblablement pas capable de financer ses projets d’infrastructure si les revenus n’augmentaient pas rapidement. Toutefois, l’intéressée a publiquement nié avoir tenu de tels propos.
Entre soupçons de déficit financier et prédictions peu crédibles
Toujours selon The Information, des rapports internes d’OpenAI estiment à présent que l’éditeur terminerait l’année 2026 avec un déficit de 14 milliards de dollars, soit trois fois plus que ce que ses financiers redoutaient déjà en fin d’année dernière. Ces pertes pourraient cumuler jusqu’à 44 milliards de dollars d’ici à 2028.
Mais la direction d’OpenAI aurait toujours le souhait de dépenser 200 milliards de dollars en infrastructures de calcul pharaoniques d’ici à 2030.
À la décharge de Sam Altman, d’autres documents internes communiqués dans un second temps à The Information prédisent qu’un miraculeux retournement de situation arrivera en 2029, avec un chiffre d’affaires qui basculerait subitement en positif. Et pas qu’un peu : les documents anticipent 100 milliards de dollars de revenus.
C’est presque qu’autant que le chiffre d’affaires de Nvidia en 2025 (130 mds $ de revenus annuels). Sauf que les chiffres de Nivida sont plus faciles à expliquer. Il a facturé cette année-là environ 2 millions de cartes accélératrices d’IA à des tarifs compris entre 40 000 et 70 000 dollars l’unité.
Broadcom ne veut plus traiter qu’avec Microsoft
Pour terminer sur les indiscrétions obtenues par The Information, Broadcom n’accepterait plus de produire la puce accélératrice qu’à la condition que ce soit l’hyperscaler Microsoft Azure qui l’achète. Pour peupler ses datacenters existants, qu’il n’aurait qu’à louer à OpenAI si le cœur lui en dit. Broadcom demanderait que Microsoft s’engage sur au moins 40% de la quantité de puces accélératrices qu’OpenAI voulait lui commander, soit le seuil nécessaire pour que la R&D d’une nouvelle puce soit rentable.
OpenAI n’en est pas à son coup d’essai en matière de projet faramineux qui tombe finalement à l’eau. En mars dernier, l’éditeur avait trouvé le prétexte d’équipements de refroidissement abîmés lors du dernier hiver au Texas (particulièrement rude, il est vrai) pour se soustraire du fameux chantier d’un campus de 2 GW à Abilene, dont Oracle avait commandé la construction dans le cadre du projet Stargate.
Initialement présenté comme une stratégie du président Trump de faire des USA la locomotive mondiale de l’IA, le projet de méga datacenters Stargate s’est avéré par la suite être une tentative du seul OpenAI pour collecter des financements à hauteur de 500 milliards de dollars. Ils devaient lui permettre de construire ses propres datacenters et ainsi ne plus payer de loyer à son hébergeur historique Microsoft Azure.
On suppose que, dans ce contexte, Open AI n’est sans doute pas plus intéressé aujourd’hui par une puce dont il devrait payer le loyer à Microsoft Azure.
