Empreinte environnementale de l’IA : aller au-delà des estimations
Comment mesurer l’empreinte environnementale de l’IA ; que mesurer ? Si la question peut paraître triviale, elle demeure sujette à débat. Les experts du domaine réclament aux acteurs de l’écosystème (des fournisseurs de LLM aux équipementiers en passant par les hébergeurs cloud) des mesures réelles, afin de mieux évaluer les impacts globaux et locaux.
L’écosystème le sait. Le grand public est au courant. L’IA générative provoque une hausse de la consommation électrique et des émissions carbone. L’agence internationale de l’énergie prévoit que d’ici à 2030 la part de la demande électrique mondiale liée aux data centers passe à 3 %, soit le double de ce qu’elle représentait en 2024. Elle devrait alors atteindre 945 térawattheures (TWh), dont la moitié rien qu’aux États-Unis.
Des prévisions plus ou moins alarmistes
De son côté, Goldman Sachs Research estime que les centres de données consommeront environ 1 100 TWh en 2030, The Shift Project entrevoit plutôt une courbe dont le pic atteindrait « jusqu’à » 1500 TWh la même année.
« Nos analystes estiment la demande actuelle à environ 62 gigawatts (GW), composée de charges de travail dans le cloud (58 %), de charges de travail traditionnelles (29 %) et de charges de travail liées à l’IA (13 %) », note Goldman Sachs dans un rapport publié à la fin du mois d’août 2025. Elle devrait passer à 92 GW en 2027, tandis que la part des charges de travail d’IA passerait à 28 % à la même période. La banque d’affaires mondiale mesure ici la puissance électrique requise pour faire tourner les serveurs et les composants qu’ils contiennent.
Dans un même temps, les émissions carbone mondiales liées aux centres de données devraient augmenter de 215 ou 220 millions de tonnes de CO2 sur la même période.
Quand les data centers représentaient 0,48 % des émissions globales en 2022, ils devraient être responsables de 1,07 % des émissions mondiales en 2030. Ce sont en tout cas les estimations déduites par Goldman Sachs Research à partir, entre autres, des données de l’IEA. Celles-ci seront à 60 % issues de la consommation de gaz, une énergie fossile encore largement disponible aux États-Unis.
The Shift Project évoque « jusqu’à » 920 millions de tonnes équivalent carbone en 2030, soit le double des émissions annuelles de la France.
Consommation et émissions de l’IA : l’écosystème réclame des mesures réelles
Les écarts importants dénotent un problème de mesure. Des indicateurs existent pour connaître la puissance électrique exigée des serveurs, pour évaluer leur enveloppe thermique, leur consommation d’eau et leur efficacité énergétique. Les acronymes PUE (Power Utilization Effectiveness), TDP (Thermal Design Power ou enveloppe thermique), WUE (Water Usage Effectiveness) ou CUE (Carbon Usage Effectiveness) sont souvent portés par des normes internationales. Or les procédés d’évaluation « sont déclaratifs et sujets à interprétation », note Babak Falsafi, président de la Swiss Data Center Efficiency Association et professeur de sciences computationnelle à l’École polytechnique Fédérale de Lausanne. Il intervenait au début du mois de décembre lors de la conférence Green IO. Elle avait lieu à la Défense, près de Paris.
« S’appuyer sur des moyennes est le meilleur moyen de masquer la réalité et donc potentiellement de truquer les chiffres », considère pour sa part Philippe Cordier, directeur scientifique et vice-président data science chez Capgemini Invent, auprès du MagIT. « Je vais prendre un exemple qui n’est pas du tout sur le cas spécifique de l’IA. La Californie communique beaucoup sur le fait que le mix énergétique de sa production électrique est très décarboné. Or, les fournisseurs locaux importent beaucoup d’électricité venant d’autres États avec des mix beaucoup plus carbonés ».
« C’est avant tout un sujet de volonté, plus que de faisabilité technique. »
Philippe CordierDirecteur scientifique et vice-président data science, Capgemini Invent
Du même coup, les rapports concernant les émissions CO2 d’un data center dans cette région est potentiellement faussé. Et ce ne serait même pas du fait de l’hébergeur. Les fournisseurs cloud ont par ailleurs tendance à présenter des bilans carbone compensés, c’est-à-dire incluant les crédits carbone obtenus lors de la souscription aux contrats d’énergie renouvelable. « Entre le scope 2 “basé sur le marché” et celui “basé sur la localisation”, il peut y avoir un écart extrêmement important d’un facteur 5 à 8 », signale Benoît Durand, responsable senior de la durabilité chez WaveStone, auprès du MagIT.
« Je pense que nous devrions utiliser des mesures directes de la consommation d’énergie et si possible de l’eau au sein des data centers », a déclaré Sasha Luccioni, directrice durabilité chez Hugging Face, lors de la conférence Green IO. « Tous les indicateurs basés sur l’enveloppe thermique des composants (TDP) ou sur les émissions carbone sont des formes de métriques indirectes ou des dérivés. Nous disposons de très peu de données spécifiques aux centres de données. Tout cela rend difficile la désagrégation par requête, entre le réseau et le calcul, etc. », signale-t-elle.
Pour Philippe Cordier, les fournisseurs cloud ont les moyens de rendre compte de leur consommation d’énergie, d’eau et leurs émissions carbone de manière plus précise. « C’est avant tout un sujet de volonté, plus que de faisabilité technique », juge-t-il.
Le grand flou des émissions incorporées
Il ne s’agit pas seulement d’évaluer la consommation d’eau et d’énergie, mais aussi la pollution issue de l’extraction et la transformation de minerais, nécessaires à la construction des composants informatiques. Il s’agit là d’estimer les émissions incorporées, celles liées à la conception et à la fabrication des serveurs d’IA. Malgré les tentatives de Mistral AI et de Google en 2025, les informations manquent clairement.
« Il faut disposer de l’accès aux ressources de calcul, aux modèles d’IA, aux équipements eux-mêmes et y consacrer un grand nombre d’heures de travail pour valider les résultats. »
Sasha LuccioniDirectrice durabilité, Hugging Face
« La seule manière d’accéder aux données est de le faire par soi-même », lance Sasha Luccioni. « […] Cela rend les choses difficiles parce qu’il faut disposer de l’accès aux ressources de calcul, aux modèles d’IA, aux équipements eux-mêmes et y consacrer un grand nombre d’heures de travail pour valider les résultats ». Sasha Luccioni est la co-animatrice du projet AI Energy Score. Celui-ci vise à estimer la consommation électrique des modèles d’IA générative suivant leur catégorie et leur taille avec pour référence le GPU Nvidia H100 et la carte graphique RTX 4090. La deuxième itération de ce parangonnage révèle que les modèles de raisonnement consomment deux fois plus d’énergie que les LLM plus classiques.
C’est de ce niveau de pugnacité dont a également fait preuve Sophia Falk, doctorante au laboratoire d’IA durable de l’Université de Bonn, en Allemagne. Elle est la co-autrice d’une analyse du cycle de vie d’un GPU Nvidia A100.
« Nous avons mis la main sur un GPU Nvidia A100 hors service, nous l’avons brûlé, nous l’avons broyé et nous avons analysé tous les éléments contenus dans chaque composant du GPU », a-t-elle raconté lors de Green IO. « Sur la base des compositions élémentaires par composant, nous avons pu procéder à une évaluation très précise du cycle de vie, en incluant les facteurs d’impact environnemental majeurs », ajoute-t-elle. « Nous avons démontré que les bases de données précédentes ont sous-estimé la consommation de minerais de 33 % ».
Google a présenté une analyse du cycle de vie de ses TPU au début de l’année 2025, mais c’est un travail plus difficile à réaliser avec des technologies tierces. Lors de Green IO, Vincent Poncet, spécialiste de la durabilité chez Google Cloud, a confirmé la difficulté de réunir des informations fiables tout au long de la chaîne d’approvisionnement. Ce n’est pas dans la culture des partenaires de GCP que de réaliser une analyse de cycle de vie de leurs équipements.
Des proxymétriques, à défaut de mieux
En attendant que l’application de normes dictées par des organismes comme l’AFNOR, par des entités indépendantes ou des chercheurs s’impose, Benoît Durand de WaveStone, recommande aux entreprises de s’appuyer sur des proxymétriques.
« Il ne faut pas se laisser enfermer dans l’empreinte unitaire, mais aussi se demander quel est le volume de requêtes total. »
Benoît DurandResponsable senior durabilité, WaveStone
« Nous ne sommes pas obligés d’attendre de savoir mesurer à la perfection l’empreinte des modèles d’IA », affirme-t-il auprès du MagIT. « Quand les projets touchent des dizaines ou des centaines de milliers d’utilisateurs, il y a d’abord un effort de pédagogie à faire pour renseigner sur l’impact de la taille de la requête en entrée et du volume de tokens générés en sortie. C’est extrêmement structurant », juge-t-il. Mesurer le nombre de requêtes est aussi pertinent, estime-t-il.
« Il ne faut pas se laisser enfermer dans l’empreinte unitaire, mais aussi se demander quel est le volume de requêtes total », souligne le consultant.
« C’est un bon début », concède pour sa part Sasha Luccioni. « Je pense qu’il faut combiner l’usage de proxymétriques et réclamer de la transparence aux fournisseurs. La plupart des entreprises n’ont même pas de mesure sur le nombre de requêtes, leur type, le volume de tokens générés, etc. », poursuit-elle. « Quand vous avez un certain degré d’autonomie et que vous avez une certaine influence auprès de vos fournisseurs, vous pouvez commencer à poser des questions, essayer d’obtenir des éléments de comparaison en concoctant vos propres estimations énergétiques ».
Il ne faut toutefois pas se laisser enfermer dans un discours qui consisterait à utiliser exclusivement ce qui, en pratique, demeure des moyennes et des estimations. Il faut continuer à réclamer des mesures réelles, prêche-t-elle.
Encore faut-il que les entreprises s’y intéressent. Selon une étude publiée le 11 décembre 2025 par la Fondation Thomson Reuters en partenariat avec l’UNESCO auprès de 1 000 entreprises de 13 secteurs, 97 % d’entre elles n’ont pas évalué l’impact environnemental (émission CO2 et consommation d’énergie) de leurs systèmes d’IA.
Ne pas oublier les populations locales
Au-delà de la consommation et de la pollution, il faudrait, selon Sophia Falk, prendre en compte la toxicité des équipements et des installations. La toxicité est à mesurer au plus proche des data centers.
« Par exemple nous avons tendance à ignorer les effets – la toxicité pour les humains et son environnement – parce qu’ils sont plus difficiles à évaluer. »
Sophia FalkDoctorante au laboratoire d’IA durable, Université de Bonn en Allemagne
« Nous avons un système terrestre interactif et interconnecté. Nous pouvons observer de nombreux effets différents qui sont influencés par le développement de l’IA ou la fabrication de matériels informatiques », signale-t-elle. « Par exemple, nous avons tendance à ignorer les effets – la toxicité pour les humains et son environnement –, parce qu’ils sont plus difficiles à évaluer ». Et de suggérer la multiplication des prélèvements sanguins auprès des enfants vivant près des data centers et des sites de recyclage d’e-déchets. « Nous ne disposons pas de données géographiques ou temporelles sur ces impacts ».
Philippe Cordier de Capgemini Invent met indirectement en exergue le problème des études concernant l’impact environnemental de l’IA. Elles s’appuient elles aussi sur des estimations et lissent les effets sur l’échelle locale. Car ce sont les populations vivant près des data centers et des usines qui en subissent directement les impacts, que ce soit la pollution, la chaleur ou l’augmentation du coût de l’électricité et de l’eau.
En octobre 2025, des chercheurs de l’Université de Riverside et de Caltech ont estimé que les pollutions aériennes provoquées par les data centers feront augmenter la facture de santé publique de 20 milliards de dollars aux États-Unis d’ici à 2028.
De fait, les installations de centres de données sont plus ou moins encadrées.
D’après E&E News, un média appartenant à Politico, xAI d’Elon Musk a installé 35 turbines à méthane pour alimenter un data center dans le sud de Memphis au Tennessee. Dans un premier temps, aucun permis ne lui a été réclamé pour déployer ces installations réputées pour émettre de l’oxyde d’azote. L’émission du fameux NOx, au cœur du Dieselgate de 2015, est pourtant très contrôlée aux États-Unis.
Bien que ces installations fassent l’objet d’études d’impact environnementales, en France, les data centers ne sont pas soumis aux mêmes règles que les centrales nucléaires.
En Europe, certains data centers installés au Portugal et à Marseille rejettent de l’eau servant à refroidir les installations dans la mer, l’océan ou les rivières. Une eau dont la température atteint environ 30 degrés Celsius quand elle est rejetée à l’océan. Ici, les risques concernent principalement l’altération de la faune et de la flore. Bien que ces installations fassent l’objet d’études d’impact environnementales, en France, les data centers ne sont pas soumis aux mêmes règles que les centrales nucléaires, qui doivent, sauf dérogation, arrêter les réacteurs quand la température de l’eau rejetée est supérieure de 15 degrés à la température de la mer ou de l’océan et de 7 degrés pour les rivières.
Les porteurs de projets de datacenters font désormais valoir les gains pour les populations locales. Il s’agit notamment de mettre à contribution la chaleur fatale pour chauffer les établissements publics ou les habitations. Or du fait de contraintes d’installation, de coût ou d’incompatibilité avec les réseaux de distribution, une portion infime de la chaleur émise par un data center est actuellement récupérable. Du même coup, un centre de données concerné par cette configuration devient un potentiel îlot de chaleur. Sans compter les gaz fluorés qui peuvent fuir des installations de refroidissement. Les donneurs d’ordre contestent parfois les estimations des enquêteurs environnementaux, arguant qu’ils n’ont pas l’expertise nécessaire pour évaluer les impacts.
Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire