itestro - Fotolia

Dans les coulisses de Google : les équipes durabilité militent pour publier plus

Derrière les communications de Google sur son empreinte environnementale se cache un long processus de validation et de compromis. La transparence est un enjeu qui doit arbitrer entre les attentes des clients, les contraintes réglementaires et la protection des secrets industriels. Et qui suscite des débats internes.

Chez Google, la transparence environnementale est aussi une lutte interne. Sous la pression des observateurs et de ses clients (en tout cas en Europe), le géant américain partage davantage de données sur l’empreinte environnementale de ses infrastructures et de ses services d’IA. Mais derrière ces livrables, se cache un long travail d’arbitrage, de validation et de compromis, qui limite encore le périmètre et la granularité de ce qui est rendu public.

Une forte vigilance interne sur les données

Comme toute entreprise cotée, Google a des obligations. « Nous sommes surveillés par les régulateurs financiers, par les législateurs, par tous les médias », rappelle Vincent Poncet, spécialiste de la durabilité du cloud chez Google, lors de l’événement Green IO qui s’est déroulé début décembre à Paris.

Cette surveillance – « légitime » pour Vincent Poncet – implique que chaque chiffre soit juridiquement et financièrement sécurisé avant d’être publié. Cette vigilance interne expliquerait en grande partie la rareté des rapports détaillés sur l’empreinte carbone de ses services d’IA.

En 2025, Google a bien partagé deux études – une sur l’analyse du cycle de vie de certains TPU, l’autre sur l’empreinte carbone de Gemini. Mais ces initiatives restent exceptionnelles au regard de la complexité de l’évaluation.

Une mesure technique complexe

La mesure elle-même pose en effet de nombreux défis techniques.

Côté face, dans ses environnements à très grande échelle, Google mesure la consommation directement depuis les racks. Il peut également obtenir les données de consommation électrique à la prise, le groupe étant propriétaire de tous ses systèmes.

Mais, côté pile, beaucoup d’éléments sont partagés (cache, optimisation réseau, infrastructure d’inférence IA). Il faudrait donc les « désagréger » – les ventiler – pour attribuer à chaque workload les éléments de consommation qui lui incombent.

Pas simple, selon Vincent Poncet, qui confirme qu’il faut « élaborer une équipe dont la responsabilité est d’attribuer la consommation et le cycle de vie de nombreux sous-systèmes de services au sein d’une grande infrastructure ».

Sur le cycle de vie des équipements, justement, Google possède déjà une équipe dédiée (LCA pour Life Cycle Analysis). Celle-ci est en contact direct avec les fabricants. « La majorité des équipementiers et des fournisseurs n’ont pas d’équipe LCA, donc nous allons les voir afin d’obtenir des informations en provenance directe de leur processus de fabrication », confie le responsable.

Les processus de validation de Google

Chaque publication sur l’environnement doit ensuite passer par « un processus massif de vérification de la conformité », continue Vincent Poncet.

Google doit évaluer, pour chaque point, ce que chaque donnée pourrait révéler de ses processus internes ou de ses choix technologiques. « Cela prend du temps » concède Vincent Poncet, qui souligne que la question n’est pas seulement technique. Elle est aussi juridique et réputationnelle.

Le rapport sur Gemini l’illustre parfaitement. Publié après l’annonce de Sam Altman sur l’empreinte de ChatGPT et après le rapport de Mistral AI, il a été reporté plusieurs fois. Et « ce qui a été livré n’est pas forcément ce qui était attendu au départ, en raison de tous les processus de validation », révèle Vincent Poncet.

Ce qui explique aussi pourquoi le résultat a été perçu comme incomplet par une partie de la communauté scientifique et par certaines ONG.

Google a essuyé plusieurs critiques sur ses choix méthodologiques. L’une d’entre elles concerne l’usage d’un facteur d’émission carbone basé sur le marché. Si cette pratique est conforme au protocole international GHG (Greenhouse Gas Protocol), les mesures des émissions prennent en compte des déductions théoriques (à l’instar des crédits carbone) obtenues au moment de la contractualisation de contrats d’énergies renouvelables longue durée. La communauté lui préfère l’approche basée sur la localisation, plus proche de la réalité physique du réseau de distribution d’énergie.

Une autre critique concerne les imprécisions sur la consommation d’eau.

Pourtant, les données basées sur la localisation peuvent être déduites et celles sur l’eau étaient bien disponibles dans le rapport, affirme Vincent Poncet.

En réponse de ces remarques, Google envisagerait une version 2, plus explicite et complète.

Le débat interne pour plus de transparence

La transparence environnementale serait donc, aussi, un sujet de débats internes. « Vous avez des intérêts multiples au sein d’un grand groupe et vous devez cocher toutes les cases [de tout le monde] pour valider une donnée », rappelle l’expert avec pragmatisme.

« Certaines équipes, dont la mienne, voudraient davantage de transparence et elles se battent pour l’obtenir », continue Vincent Poncet. Et elles obtiennent parfois gain de cause, notamment lorsque les demandes émanent directement des clients, et avec des informations partagées uniquement sous accord de non-divulgation (NDA).

Mais toutes les données ne pourront de toute façon pas être rendues publiques, nuance l’expert. Certaines resteraient tout simplement trop sensibles.

Les équipes hardware, par exemple, se montreraient particulièrement réticentes à communiquer sur les données liées aux TPU – les processeurs propriétaires jugés stratégiques par Google.

Vincent Poncet considère d’ailleurs cela comme normal, et peu utile pour le client final. « Au-delà de la propriété intellectuelle (PI), nous pensons qu’obtenir des données complètes sur le CPU, la RAM, les GPU, le réseau est plus intéressant », justifie-t-il. « Et plus vous dévoilez d’informations granulaires […], plus vous exposez vos recettes », ajoute Vincent Poncet. « Or nous voulons garder nos secrets de fabrication… secrets. »

Les angles morts de l’empreinte de l’IA

D’autres zones d’ombre subsisteront. Google explique par exemple qu’il ne dispose pas de données fiables sur les minerais, utilisés en amont de sa chaîne de production. Son équipe LCA s’appuie sur des bases de données externes, mais selon Vincent Poncet, « elle ne fait pas beaucoup confiance à ces sources ».

L’empreinte de l’IA elle-même restera difficile à évaluer. L’entraînement des modèles – avec ses phases de préparation des données, de réentraînement et de post-entraînement – pose question.

« Est-ce que vous les incluez ou non ? C’est une question ouverte », pose l’expert. À cela s’ajoute le fait que Google a jusqu’ici surtout étudié la génération de texte – l’usage le plus populaire au moment des rapports. Or l’essor de la multimodalité (images, vidéos, son) imposera de nouvelles évaluations.

Vers une réponse collective du secteur

« Nous essayons de travailler avec nos concurrents pour nous mettre tous d’accord. »
Vincent PoncetSpécialiste de la durabilité du cloud, Google

Face à ces défis, Google plaide pour une approche plus collective.

Le géant de l’IT participe à des travaux dans le cadre du projet Open Compute (Open Compute Project ou OCP). L’objectif est de définir une approche commune à toute l’industrie IT et une base de données partagée pour l’analyse du cycle de vie des serveurs.

« Nous essayons de travailler avec nos concurrents pour nous mettre tous d’accord », confirme Vincent Poncet.

Car pour l’équipe LCA de Google, c’est bien tout le secteur qui devrait travailler collectivement « pour mettre en place un processus et l’appliquer à l’ensemble de nos partenaires jusque dans la fabrication [du hardware], en divulguant davantage, mais aussi en établissant une méthodologie » milite Vincent Poncet.

Pour approfondir sur Green IT