weerapat1003 - stock.adobe.com

L’impact énergétique de l’IA, une affaire de données

Lors de la conférence ChangeNow, James Martin (fondateur de BetterTech) et Axelle Lemaire (directrice développement durable chez Sopra Steria) ont réclamé à OpenAI de transmettre les données sur la consommation énergétique réelle de ses services. Un exercice difficile qui transparaît dans un rapport mené par l’agence internationale de l’énergie.

« J’aime particulièrement quand les anti-IA inventent des “conneries” sur notre consommation d’eau tout en mangeant un hamburger », lançait en février Sam Altman, cofondateur et PDG d’OpenAI sur X en réaction d’un autre message d’Alec Stapp, cofondateur du think tank Institute for Progress. Ce dernier comparait la consommation d’eau de 300 requêtes ChatGPT, un peu moins de 4 litres, avec celle nécessaire à la fabrication d’un hamburger aux États-Unis, environ 2 500 litres.

« Eh bien, Sam, si vous nous en disiez un peu plus sur l’impact réel de votre IA, nous n’aurions pas besoin d’inventer des choses », répond James Martin, responsable de communication chez Shippeo et fondateur de BetterTech, lors de la conférence ChangeNow 2025, le 24 avril à Paris. « Je ne suis pas contre l’IA, mais […] sur la base des dernières estimations que nous avons, créer une image avec ChatGPT consomme assez d’énergie pour recharger au moins la moitié d’un smartphone », ajoute-t-il.

Ici, James Martin fait référence à une étude publiée pour la première fois à la fin de l’année 2023 par des chercheurs de l’université Carnegie Mellon et d’Hugging Face. Celle-ci a été mise à jour en octobre 2024.

La guerre des proxymétriques

« À titre de comparaison, le chargement d’un smartphone moyen nécessite 0,022 kWh d’énergie », assurent les chercheurs. « Ce qui signifie que le modèle de génération de texte le plus efficace consomme autant d’énergie que 9 % d’une charge complète de smartphone pour 1 000 déductions, tandis que le modèle de génération d’images le moins efficace consomme autant d’énergie que 522 charges de smartphone (11,49 kWh), soit environ la moitié d’une charge par génération d’image, bien qu’il y ait également une grande variation entre les modèles de génération d’images, en fonction de la taille de l’image qu’ils génèrent ».

En l’occurrence, le modèle le plus consommateur est un modèle Stable Diffusion.

Le contre-argument de James Martin et la comparaison effectuée par Sam Altman peuvent laisser à penser qu’en matière d’impact écologique de l’IA, il est de bon ton de comparer des choux et des carottes.

Ces proxymétriques, comme les appelle AWS, ont une double fonction : tenter de faire comprendre au plus grand nombre l’impact de l’IA (dans un sens positif ou négatif) et combler un manque.

Il y a toutefois une tendance claire, selon le fondateur de BetterTech. « Les gens utilisent tellement l’IA aujourd’hui que la consommation d’énergie des centres de données va au moins doubler, voire tripler, d’ici à la fin de la décennie. C’est une première. Et l’eau que ces centres de données consomment va tripler, voire quadrupler, d’ici à la fin de l’année », poursuit-il.

« Sam Altman et d’autres vous diront qu’ils maîtrisent la situation et qu’ils utiliseront moins d’énergie au fil du temps. Dans un même temps, la prochaine génération de GPU Nvidia utilisera cinq fois plus d’énergie par rack ».

Et d’ajouter qu’aux États-Unis, les centrales à charbon censées fermer resteront en activité pour soutenir la demande croissante en électricité.

« Si vous nous écoutez, Sam Altman, s’il vous plaît, donnez-nous les chiffres ».
Axelle LemaireDirectrice responsabilité d’entreprise et développement durable, Sopra Steria

« Si vous nous écoutez, Sam Altman, s’il vous plaît, donnez-nous les chiffres », s’exclame Axelle Lemaire, directrice responsabilité d’entreprise et développement durable chez Sopra Steria.

L’IA ferait dérailler la consommation électrique des data centers

Les indicateurs mentionnés par James Martin proviennent en partie d’un document publié le 10 avril 2025.

Selon le rapport sobrement intitulé « Energy and AI » de l’International Energy Agency (IEA), en 2024, les data centers ont consommé 415 térawattheures (TWh), soit 1,5 % de la consommation d’électricité mondiale. Les auteurs du rapport prédisent que cette consommation pourrait plus que doubler d’ici à 2030 pour atteindre 945 TWh. Converti en proxymétrique, cela reviendrait à la demande annuelle en électricité du Japon.

« Entre 2010 et 2020, cette consommation est restée plutôt stable, autour des 200 TWh par an », rappelle Axelle Lemaire. Dans un rapport en 2022, l’IEA a considéré que la consommation annuelle des data centers entre 2010 et 2020 se situait aux alentours de 200 à 250 TWh. Entre 2014 et 2024, l’agence a établi à environ 250 TWh de moyenne par an, soit la consommation de l’Espagne.

En 2024, les auteurs du rapport de l’IEA estiment que les « serveurs accélérés sont responsables de près de la moitié de l’augmentation nette de la consommation d’électricité des centres de données dans le monde, alors que les serveurs conventionnels n’en représentent qu’environ 20 % ». Ces serveurs accélérés ne sont autres que les serveurs équipés de GPU. En 2024, ils représentaient environ « 24 % de la demande d’électricité des serveurs et 15 % de la demande totale des centres de données ».

Pour expliquer ce phénomène, les analystes évoquent, en matière d’IA, la préférence des fournisseurs pour les serveurs équipés de huit GPU dont la consommation dépasse les 10 kWh, quand un serveur doté de deux GPU n’en consommerait que 2 kWh.

L’IEA table en réalité sur quatre types de scénarios, plus ou moins optimistes, tout en poussant son analyse sur dix ans. En 2035, la consommation électrique totale des datacenters est estimée entre 670 TWh, si l’adoption de l’IA est freinée, et plus de 1 700 TWh si elle est généralisée et que la production d’énergie suit la demande. Le scénario de base équivaudrait à 1 200 TWh.

Des données encore incomplètes

Bien que l’agence veuille rester positive à propos des impacts sur la production et la consommation d’énergie, des possibilités de réduire les émissions grâce à l’IA, des effets macroéconomiques, etc., beaucoup d’éléments sont incertains, reconnaît-elle.

En outre, ces évaluations s’appuient elles-mêmes sur des relevés constitués par IDC, Gartner, SemiAnalysis, Omdia [propriété d’Informa TechTarget, également propriétaire du MagIT], Borderstep Institute, Konrat ou encore Forbes. Ces tableurs sont précis, les estimations sont documentées, mais restent ils restent partiels.

L’IEA reprend aussi des données constructeurs, notamment celle de Nvidia. Des données à prendre avec des pincettes (et parfois il convient de prendre les pincettes avec des gants). Selon les spécifications concaténées par EpochAI, le « GPU B200, qui représente l’état de l’art actuel, est 60 % plus économe en énergie en termes de FLOP par watt que le H100 de la génération précédente, lequel est lui-même 80 % plus efficace que le modèle A100 de la génération antérieure ».

Comme le reconnaît le rapport, cela dépend amplement de l’implémentation de ces GPU. Une recherche menée par Google sur ses TPU tend à prouver que la consommation peut varier non seulement selon la charge de travail, le moment de la journée, mais aussi par équipement, en fonction de l’efficacité de sa fabrication.

Les données des fournisseurs cloud et des gestionnaires d’infrastructures sont elles aussi incomplètes.

Des strates d’opacité

« Je pense que la première chose importante à faire est de mesurer l’impact de l’IA », avance Axelle Lemaire. « En réalité, nous pouvons partager des chiffres, mais nous n’avons pas accès aux informations environnementales des fournisseurs de cloud lorsqu’ils hébergent l’entraînement et l’inférence de grands modèles de langage ».

« En réalité, nous pouvons partager des chiffres, mais nous n’avons pas accès aux informations environnementales des fournisseurs de cloud lorsqu’ils hébergent l'entraînement et l’inférence de grands modèles de langage ».
Axelle LemaireDirectrice responsabilité d’entreprise et développement durable, Sopra Steria

Au-delà d’une absence réelle de politique Green IT, il est fortement probable qu’OpenAI n’ait pas accès à certaines données de son fournisseur principal, Microsoft Azure. Les hyperscalers maintiennent un niveau d’opacité non pas vraiment pour dissimuler leur bilan carbone, mais parce que la tarification de leurs services est en partie fonction du coût de l’énergie et qu’ils souhaitent conserver le contrôle sur l’accès aux couches basses de leur cloud (un préalable nécessaire pour collecter ces données). De même, il est difficile pour ces fournisseurs de connaître ou de renseigner les informations de consommation de serveurs installés derrière les murs de gestionnaires tiers, dont Equinix ou Digital Realty. Aussi, l’ensemble de ces acteurs ne peuvent que s’appuyer sur le mix énergétique estimé du réseau électrique sur lequel ces centres de données sont connectés.  

Dans un même temps, les obligations de rapports aux autorités sont globalement faibles, selon l’IEA. « Les exigences en matière de reporting pour les centres de données restent volontaires dans la plupart des juridictions en 2025, mais certains dispositifs obligatoires sont en cours d’élaboration », notent les auteurs.

Outre la CSRD, la directive UE 2023/1 791 relative à l’efficacité énergétique du 13 septembre 2023 impose aux gestionnaires de data centers de plus de 1 MW de renseigner, entre autres, des données concernant la puissance installée et les indicateurs de performance clé « sur la consommation d’énergie, l’utilisation de puissance, les consignes de température, l’utilisation de la chaleur fatale, la consommation d’eau et l’utilisation d’énergies renouvelables ». Elle doit être transcrite en droit français avant le 11 octobre 2025.

Malgré le sempiternel problème de confiance dans les données, l’exercice spéculatif de l’IEA n’a rien d’inutile, selon Fatih Birol, directeur exécutif de l’agence internationale de l’énergie. « L’intelligence artificielle est aujourd’hui l’un des sujets majeurs dans le monde de l’énergie – mais jusqu’à présent, les décideurs politiques et les marchés ne disposaient pas des outils nécessaires pour comprendre pleinement l’étendue de ses impacts », souligne-t-il, dans un communiqué de presse.

Aussi, malgré les impacts potentiellement nocifs de l’IA, l’agence envisage les potentiels effets positifs sur la R&D, notamment pour optimiser les performances des énergies renouvelables, et la relative faiblesse des émissions des data centers en comparaison d’autres secteurs. Et d’annoncer qu’elle prépare la création d’un observatoire pour affiner la collecte de données auprès des fournisseurs d’énergie et d’infrastructures IT.

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire