Hoda Bogdan - stock.adobe.com

Neoclouds : que vont-ils changer aux GPU-as-a-Service ?

Les neoclouds vont transformer le monde de l’IA à la demande. D’ici 2030, ils devraient capter environ 20 % d’un marché évalué à 267 milliards $, dominé par les hyperscalers qui montrent cependant certaines limites quand il s’agit des workloads spécifiques à l’IA, note Gartner.

Depuis dix ans, les hyperscalers façonnent la manière dont les DSI et les responsables IT appréhendent leurs infrastructures. La scalabilité, l’abstraction et la « commoditisation » sont devenues les caractéristiques de base de presque tout le compute. Mais voilà, l’intelligence artificielle bouleverse les choses et des « neoclouds » émergent pour répondre à de nouveaux défis.

Chez Gartner, nous estimons que d’ici 2030, ils capteront environ 20 % d’un marché de l’IA dans le cloud qui représente en tout 267 milliards de dollars.

Qu’est-ce qu’un « neocloud » ?

Les neoclouds sont des fournisseurs de cloud qui ciblent spécifiquement les charges de calculs intensifs de l’IA, particulièrement gourmandes en GPU.

Ils ne remplacent pas les hyperscalers. Ils sont une forme de correction structurelle de la façon dont l’infrastructure est construite, achetée et consommée aujourd’hui. Leur essor montre en tout cas qu’il y a un changement profond du marché : les workloads IA forcent l’infrastructure à se « démanteler » à nouveau.

Il ne s’agit pas d’un retour au on-prem où l’on choisit tous les éléments d’une infrastructure, ni d’un rejet du modèle à la demande, mais d’une nouvelle étape du cloud.

Pourquoi l’IA brise le modèle des hyperscalers

Les workloads d’IA diffèrent fondamentalement du calcul traditionnel. Ils reposent massivement sur des GPU, ils sont sensibles à la latence, gourmands en énergie et demandent de lourds investissements en matériel.

Leurs besoins en ressources évoluent aussi de manière inégale, le long du cycle de vie de l’IA avec des pics pour l’entraînement, une diminution pour l’inférence, puis de nouveaux pics lorsque les modèles sont fine-tunés, réentraînés et redéployés.

Aujourd’hui, les entreprises rencontrent trois contraintes dans leurs projets d’IA.

La première est que l’opacité des coûts s’accroît. La tarification des GPU dans le cloud devient de plus en plus complexe, avec des offres groupées, et des prix très volatils. Cette situation est aggravée par le surprovisionnement et les engagements de réservation sur le long terme, qui partent du principe d’une utilisation constante.

En parallèle, l’accès aux GPU de dernière génération se complique. Les délais d’approvisionnement s’allongent, les pénuries se multiplient dans certaines régions et la planification devient difficile faute de visibilité.

À ces contraintes s’ajoute un troisième problème : les couches de virtualisation et la mutualisation des ressources nuisent à la prévisibilité des performances, particulièrement critique pour l’entraînement de modèles et l’inférence en temps réel.

Que changent les neoclouds ?

La proposition de valeur des neoclouds repose à l’inverse sur des serveurs dédiés (bare metal), un provisionnement rapide et une tarification transparente à la consommation. Les économies annoncées atteignent 60 à 70 % par rapport aux instances GPU des hyperscalers, avec l’avantage d’accéder aux processeurs graphiques les plus récents.

Les neoclouds amènent également à repenser la répartition technique des charges de travail d’IA. L’entraînement, le fine-tuning, l’inférence, la simulation ou l’exécution d’agents ont des exigences distinctes de performance, de prix et de localisation. Les traiter comme des workloads interchangeables est souvent inefficace et inutilement coûteux.

Les bonnes stratégies d’infrastructure IA sont, par nature, hybrides et multicloud, non pas comme une conséquence malheureuse de la multiplication des fournisseurs, mais en réponse délibérée à la réalité de ces nouveaux workloads.

En conséquence, le marché se re-segmente. Et les neoclouds gagnent du terrain.

Coopétition, pas disruption

La croissance des neoclouds ne menace pas l’existence des hyperscalers. En fait, les hyperscalers comptent même parmi leurs plus gros partenaires. Ils utilisent les neoclouds comme des capacités d’appoints, flexibles, lorsque la demande augmente ou que les GPU se raréfient.

Nous sommes en présence d’une nouvelle forme de co-opétition. Les hyperscalers conservent le contrôle des plateformes et des écosystèmes, tandis que les neoclouds se spécialisent dans l’IA brute et la rapidité d’accès au matériel. Chacun répond à un besoin différent dans la chaîne de valeur de l’IA.

Pour les entreprises, cette évolution brouille un peu les catégories traditionnelles du cloud. La question n’est plus simplement quel fournisseur utiliser, mais comment déployer intelligemment les charges de travail IA selon les critères de coût, de performance, de souveraineté et de risque opérationnel.

Le vrai risque : l’adoption purement tactique

Le plus grand risque serait de traiter les neoclouds comme une solution de contournement à court terme aux pénuries de GPU. Les neoclouds introduisent en effet de nouveaux défis : complexité d’intégration, dépendance aux écosystèmes propriétaires, consommation énergétique et risques de concentration. S’ils ne sont utilisés que de manière « tactique », ils peuvent fragmenter les architectures et augmenter les risques opérationnels.

Mais utilisés stratégiquement, ils offrent un atout majeur : le contrôle.

  • Contrôle de la visibilité des coûts, grâce à une tarification des GPU transparente, qui s’appuie sur la consommation réelle, réduit le surprovisionnement et expose les coûts réels de l’IA
  • Contrôle de la souveraineté des données, en permettant des déploiements régionaux ou souverains quand les exigences réglementaires ou de latence l’exigent.
  • Contrôle de l’orchestration des workloads, en permettant d’optimiser la répartition entre hyperscalers, neoclouds et infrastructures internes

Principaux enseignements à garder à l’esprit

Les neoclouds ne sont donc pas des clouds alternatifs. Ils obligent à repenser les hypothèses d’infrastructure à l’âge de l’IA.

Le nouvel avantage concurrentiel viendra de la stratégie : quand mettre l’IA chez un hyperscaler, ou chez un neocloud, ou dans un environnement sur site ou en edge ?

Dans cinq ans, nous pensons que les responsables IT ne seront plus jugés sur leur consommation de cloud, mais sur leur capacité à déployer l’intelligence là où elle crée le plus de valeur.

Mike Dorosh est analyste directeur senior chez Gartner.

Gartner explorera comment les neoclouds et le placement workloads d’IA remodèlent les stratégies cloud et data lors du Gartner IT Symposium/Xpo à Barcelone, du 9 au 12 novembre 2026.

Cet avis d’expert a été initialement publié sur ComputerWeekly.

Pour approfondir sur Hardware IA (GPU, FPGA, etc.)