stock.adobe.com
IA agentique : Google Cloud face au mur du passage à l’échelle
Les déploiements de l’IA agentique font leurs débuts en production, mais GCP dit devoir donner un coup de pouce à ses partenaires et à ses clients pour les projets à l’échelle en entreprise. Il y investit 750 millions de dollars. Il devra aussi s’équiper massivement en ressources de calcul.
L’événement Google Cloud Next 26 a vu passer quelque 32 000 participants à Las Vegas, dont une centaine de clients français. L’occasion de prendre le pouls de l’adoption de l’IA.
Pour l’heure, elle est principalement portée par les appels API aux modèles Gemini et le recours aux fonctions infusées d’IA agentiques au sein de la suite collaborative Workspace. Une fois déployés, les modèles Gemini seraient utilisés quotidiennement par 50 % de la population concernée.
Ce n’est qu’une première étape, selon Anthony Cirot, vice-président EMEA sud et dirigeant par intérim de Google Cloud France.
Workspace, modèles Gemini, Gemini Enterprise : l’adoption prend, selon GCP
Désormais, Gemini pour Workspace a le droit au graphe de connaissances Workspace Intelligent, un équivalent de Microsoft Graph (une brique GraphRAG) au sein de l’écosystème Google. Gemini Enterprise, 8 millions d’utilisateurs actifs au total, devient véritablement la surcouche applicative de Vertex AI, et non plus une collection d’offres sur étagère.
« Nous avons essayé de montrer une plateforme intégrée, unifiée qui permet finalement de servir les employés, de transformer les entreprises et aussi de vendre davantage leurs produits », affirme Anthony Cirot.
« Les clients [de Gemini pour Workspace et Gemini Enterprise] sont majoritairement en préproduction », ajoute-t-il.
Outre Valeo, EcoVadis a annoncé avoir sélectionné Gemini Enterprise. Renault également.
« Vous verrez avant la fin de l’année beaucoup d’annonces de grands groupes en France qui auront franchi le pas. Aussi parce qu’ils ont été déçus par d’autres technologies dans l’environnement de travail », avance le dirigeant.
C’est justement pour convaincre les déçus de Microsoft Copilot que Google Cloud aurait mis en avant une intégration avec les outils Microsoft 365. « Nous avons fait beaucoup d’effort pour nous intégrer avec SharePoint, Outlook, etc. », assure Anthony Cirot.
À noter que Microsoft a revu son positionnement tarifaire. Les analystes considéraient alors que cela faisait enfler les tarifs, alors que Google a fait le pari d’inclure l’IA plus rapidement dans son offre.
Des ponts sont également ouverts en direction SAP, ServiceNow ou encore Workday. « En matière d’IA agentique, nos clients ont commencé par la bureautique et prennent quelques connecteurs sur étagères vers leurs grands applicatifs ou les agents fournis par ces éditeurs tiers », observe Anthony Cirot.
Les places de marché associées à Workspace et à Gemini Enterprise rassemblent ces connecteurs.
Outre la couverture des besoins génériques à travers les fonctions IA sur étagère, les clients de GCP ont, eux aussi développé des agents ou des assistants IA qui répondent à des besoins très précis dans des domaines précis comme la supply chain ou la prévision de la demande. « Là, nous avons des cas d’usage en production », soutient Anthony Cirot.
Passer le cap des déploiements à l’échelle
Pour l’heure, les entreprises envisageraient de déployer quelques centaines de projets, 150 à 200 en moyenne, mais en compteraient moins d’une dizaine en production.
Du même coup, « il n’y a pas encore suffisamment de grands projets en production » pour que la question de la couche de gouvernance soit une préoccupation, poursuit le dirigeant. « Nous nous positionnons comme une plateforme transverse pour gouverner les agents IA, mais c’est encore trop tôt pour évoquer les choix des clients. Je n’ai aucun client qui me vienne en tête qui a déjà pris cette décision ». Le sujet devrait s’imposer d’ici six à neuf mois, anticipe-t-il.
Google tente toutefois de dissiper les craintes en matière de cybersécurité. Le géant du cloud a vanté la disponibilité générale d’Agent Identity, mais toutes les briques annexes à cette capacité ne sont pas disponibles.
L’enjeu des coûts de l’IA se posera tôt ou tard. Hormis les entreprises technologiques, les clients de GCP ne sont pas encore massivement préoccupés par leur facture liée à la consommation de tokens. Les volumes sont inclus dans leur offre Workspace ou Gemini Enterprise. C’est un sujet pour GCP, souligne Anthony Cirot. Devant les analystes, Thomas Kurian, CEO de Google Cloud, a affirmé que GCP a traité 16 milliards de tokens par minute en mars 2026 (soit la moitié des tokens vus par la plupart des LLM lors de l’entraînement), contre 10 milliards en décembre 2025.
Les entreprises se poseront elles-mêmes ces questions lors du passage à l’échelle. En attendant, il faudrait les aider à accélérer le pas. Google Cloud investit donc 750 millions de dollars dans son écosystème de partenaires, composé de 120 000 sociétés (cabinet de conseils, intégrateurs, éditeurs, etc.). Il s’agit d’accélérer le prototypage, de former les collaborateurs à l’aide de société de formation. Par ailleurs, GCP enverra ses ingénieurs assister les déploiements auprès des clients de Capgemini, Cognizant, Deloitte, HCLTech, PWC et Tata (TCS). Certains de ces partenaires auront des accès privilégiés aux LLM et aux fonctions IA de ses services cloud, ainsi qu’à ses outils de sécurité.
« Les directions générales réclament aux DSI de faire un saut quantique en matière d’IA agentique. Ils veulent déployer cela en production demain matin », assure Anthony Cirot. « Pour déployer des milliers d’agents IA à l’échelle d’un grand groupe, il faut des bras ».
Les ESN et les cabinets sont cependant menacés par l’IA sur d’autres aspects. Comme LeMagIT, Anthony Cirot remarque une volonté et des interrogations concernant le remplacement de pans entiers de SI autrefois mis à disposition à l’aide de ces entreprises.
« La puissance n’est pas infinie » : des investissements massifs pour répondre à la demande
Quant à Google Cloud, pour assurer cette mise à l’échelle, il doit pouvoir fournir tous ses clients et les nouveaux venus.
Cela passe par le renforcement de son infrastructure. En février, Alphabet a annoncé qu’elle portera ses dépenses en capital entre 175 et 185 milliards de dollars au cours de l’année fiscale 2026. C’est pratiquement le double de l’année 2025 et « six fois plus en quatre ans », selon Sundar Pichai, CEO d’Alphabet. « La moitié des ressources de calcul dédiées au machine learning seront consacrées à notre activité cloud », précise-t-il. Le reste propulsera l’IA au sein de Google Chrome, YouTube, Google Maps, etc., et les usages internes de la société.
Ces dépenses étaient déjà régulières chez les fournisseurs de cloud. Elles atteignent des records. À titre de comparaison, Microsoft prévoit d’investir 105 milliards de dollars cette année. Amazon, lui a prévu d’investir 200 milliards de dollars en 2026, principalement pour équiper ses data centers en puces IA. Or, l’intelligence artificielle et la pénurie de composants entraînent un changement de discours notable. Fini le mythe du cloud sans limites.
« La demande est tellement folle que cela nous demande d’anticiper énormément avec les clients, de provisionner », explique Anthony Cirot. « Nous ne sommes pas habitués à faire cela dans le monde du cloud. Il faut raison garder, la puissance n’est pas infinie [et] tout le monde en demande en même temps ».
La stratégie d’ouverture de Google Cloud pourrait aussi s’expliquer par ce point. Les fournisseurs de LLM ont déjà des difficultés à répondre à la demande.
À moins que le marché se lasse ou qu’un acteur trouve un moyen de donner tort aux fameuses « scaling laws », le phénomène risque de durer encore quelques années, selon le rapport 2026 consacré aux dépenses mondiales de Gartner.
« La demande en matière de cloud hyperscale entraîne une forte augmentation des investissements dans les serveurs et les centres de données ; les dépenses consacrées aux systèmes de centres de données devraient ainsi dépasser les 788 milliards de dollars en 2026, avec une croissance qui s’accélère bien au-delà des prévisions initiales », observent les analystes.
Dans un même temps, les dépenses dans les logiciels propulsés à l’IA et les modèles eux-mêmes devraient plus que doubler d’une année sur l’autre, signale le cabinet.
