
Peterfactors - stock.adobe.com
Empreinte écologique de l'IA générative : Google tente d’éteindre le feu
Dans un billet technique, Google affirme que l’empreinte énergétique de son IA générative Gemini serait largement inférieure aux estimations publiques alarmistes. Google y détaille sa méthodologie de calcul et revendique des gains d’efficacité sur les douze derniers mois. Mais la transparence n’est pas encore là.
L’impact environnemental de l’intelligence artificielle générative (GenAI) est un sujet qui commence à s’immiscer jusque dans les comités de décision des entreprises. Le débat est d’autant plus problématique pour les fournisseurs qu’ils ne communiquent pas de chiffres – ou peu – sur les consommations réelles (énergie, eau, terres rares, etc.) de leurs LLM (grands modèles de langage, au cœur de l’IA générative). Ce qui n’aide pas à créer de la confiance dans les entreprises.
Certes, un acteur comme Mistral tente de jouer la carte de la transparence. Mais ce n’est pas encore la règle et cette opacité pourrait participer à une forme de « défiance » de la part des acheteurs.
Google en a bien conscience. C’est pour éteindre cet incendie naissant qu’il a publié ce 21 août un billet technique dans lequel il défend sa position et sa GenAI maison, Gemini.
Signée par Jeff Dean, Chief Scientist, et Amin Vahdat, vice-président chargé des systèmes IA et cloud, la publication avance que les systèmes qui font tourner Gemini seraient nettement plus sobres que ne le suggèrent les études externes.
Concrètement, selon leurs calculs, un « prompt textuel médian » dans Gemini consommerait 0,24 wattheure (Wh) d’électricité, émettrait 0,03 gramme d’équivalent CO₂ et nécessiterait 0,26 millilitre d’eau pour le refroidissement. À titre de comparaison, cela représenterait « moins de neuf secondes de télévision ».
Ces chiffres, selon les deux auteurs, se situeraient « bien en dessous » des estimations couramment relayées.
Méthode plus large, chiffres paradoxalement plus bas
Google reproche à de nombreuses estimations publiques de se fonder sur une méthodologie incomplète, qui ne tiendrait compte que de l’énergie consommée par les puces de calcul (GPU ou TPU) au moment de l’exécution des requêtes.
Ces études devraient donc sous-estimer l’empreinte des LLMs… Pourtant, affirme Google. C’est l’inverse qui se passe.
Malgré cette approche partielle, les chiffres relayés seraient finalement exagérés par rapport à la consommation réelle observée en production chez Google.
Le groupe avance que ses propres mesures – bien qu’avec un périmètre plus large, car intégrant l’ensemble de l’infrastructure (machines allumées mais inactives, CPU, RAM, refroidissement, distribution électrique, et eau utilisée) – aboutissent paradoxalement à des résultats bien plus faibles.
En ne considérant que les composants actifs (à périmètre équivalent avec les estimations indépendantes donc), Google affirme que la consommation par prompt tomberait même à 0,10 Wh. Un scénario que le géant de la tech ne retient pas, et qu’il qualifie lui-même de « trop optimiste » pour mieux vanter son estimation « haute » (mais bien plus basse que les estimations externes).
Des gains d’efficacité revendiqués
Face au critique sur le fait que les LLM seraient particulièrement énergivores (ce qu’ils sont), Google avance par ailleurs que, sur un an, l’empreinte carbone et la consommation d’énergie par prompt de Gemini auraient été divisées respectivement par 44 et 33.
Ces résultats ne sont pas forcément étonnants, l’optimisation de la consommation des LLMs était anticipée par les experts. Plus concrètement, ces chiffres sont le résultat d’une approche qui combine à la fois optimisation logicielle, architectures de modèles plus efficaces (notamment avec l’approche Mixture-of-Experts qui n’active qu’une sous-partie d’un modèle si un prompt n’a pas besoin de la totalité de la puissance de celui-ci), compression (distillation), et évolution matérielle (avec la dernière génération de TPU, baptisée Ironwood).
Par ailleurs, Google met en avant l’efficacité énergétique de ses centres de données (avec un PUE moyen de 1,09), ses efforts de décarbonation, le recours à des sources d’énergies renouvelables, ou encore sa politique de reconstitution de l’eau dans les bassins en tension hydrique.
Des chiffres non audités par des tiers
Bref, Google veut montrer qu’il est vertueux. Mais le groupe ne montre pas pour autant patte blanche, et sa transparence reste relative. Les deux auteurs du billet reconnaissent eux-mêmes que les données citées proviennent d’une analyse ponctuelle, issues de l’usage de Gemini en mai 2025. Et sans vérification indépendante.
Google précise également que ces chiffres ne sont pas représentatifs de tous les cas d’usage de son IA générative et qu’ils pourraient évoluer selon les modèles ou les comportements utilisateurs.
La réalité semble contredire les estimations optimistes
Modèles et comportement sont d’ailleurs deux points fondamentaux dans l’IA frugale.
Les modèles plus petits - et souvent plus spécialisés - tendraient à beaucoup moins consommer que les grands (jusqu’à 60 000 fois moins !). Une stratégie vertueuse consisterait donc à les combiner.
Or les géants de l’IA générative sont engagés dans une course aux très gros modèles (même s’ils se dirigent également vers des Small Language Models). Ce qui explique par exemple des projets comme Stargate (dont Google ne fait pas partie) ou le fait que les géants de l’IT (Meta, Microsoft, Google) mettent un pied dans le marché… de l’énergie nucléaire pour alimenter leurs datacenters.
Côté comportement, même si la consommation marginale d’un modèle diminue (ressources engagées pour un prompt), le rebond des usages – c’est-à-dire l’explosion du recours à l’IA générative, que ce soit par le grand public dans des outils clef en main (ChatGPT, Claude, Le Chat, etc.), via API par les développeurs, ou par les utilisateurs professionnels avec la GenAI intégrée dans les applications métiers – progresse d’un « ordre de magnitude » supérieur à cette optimisation. C’est ce que constatent par exemple des experts comme Jean-François Bouzige, CEO et co-fondateur d’Ekimetrics, et Isabelle Ryl, Vice-president for AI & director of Paris Artificial Intelligence Research Institute (PSL Research University).
Une des pistes pour contenir le bilan global qu’ils préconisent, en parallèle de cette optimisation revendiquée par Google, reste donc la « sobriété des usages » – ne mettre de la GenAI que là où elle est la meilleure option.
Les stratégies commerciales des hyperscalers ne semblent cependant pas aller dans cette direction. L’intégration forcée des « assistants » dans les suites bureautiques et de productivité de Google et de Microsoft, moyennant une augmentation du prix de l’abonnement pour couvrir leurs frais, en est un signe parmi d’autres.
Un appel à une méthodologie standardisée
Dans tous les cas, il reste difficile de comparer les estimations indépendantes et les affirmations – même étayées – des éditeurs, faute de méthodologies partagées.
En conséquence, Google dit vouloir ouvrir la voie à une standardisation des mesures à l’échelle du secteur. Un appel que ne reniera certainement pas l’ENS, en France, qui a lancé cette année avec Capgemini un observatoire mondial sur l’impact écologique de l’IA justement pour pallier ce manque de transparence et de données standardisées.
Sur le sujet
Lire aussi notre grand dossier : « que reste-t-il du Green IT à l’ère de l’IA ? »