La notion de PUE a-t-elle atteint son plafond de verre ?
Brandi par les fournisseurs cloud et les infogérants pour justifier l’efficience énergétique de leur data center, le standard Power Usage Effectiveness est souvent mal utilisé et mal compris, selon les experts réunis lors de la conférence Green IO. D’autres critères sont à prendre en compte, notamment l’utilisation des serveurs et, dans le détail, de leurs composants.
Trois lettres et un score. Voilà comment le marché IT résume généralement l’efficience énergétique des centres de données.
Le standard PUE – Power Usage Effectiveness – « désigne le ratio entre l’énergie totale consommée par l’ensemble du centre d’exploitation et la partie qui est effectivement consommée par l’activité data center (serveurs, stockage, réseau). Plus la valeur est basse, plus c’est signe de bonne efficacité », rappelle l’AFNOR, qui a participé à son avènement.
Problème, « la plupart des acteurs autodéclarent » ces valeurs, indique Babak Falsafi, président de la Swiss Data Center Efficiency Association (SDEA) et professeur de sciences computationnelle à l’École polytechnique Fédérale de Lausanne.
Un critère utile, mais mal utilisé
Cette norme ISO est alors sujette à interprétation. « De nombreux hébergeurs déclarent des PUE instantanés. Plusieurs déclarent maintenant des PUE de conception. Il existe donc toutes sortes d’indicateurs de performance clé, plus ou moins lisibles, plus ou moins compatibles », observe-t-il lors de la conférence Green IO, ayant eu lieu à Paris, au début du mois de décembre 2025. Une affirmation vérifiable dans les projets de data centers déposés auprès des autorités françaises. Certains prestataires de colocation annoncent des PUE cibles, des engagements ou des fourchettes de PUE (par exemple entre 1,2 et 1,5) avant même d’avoir déployé les installations.
Sur un de ses sites Web, Microsoft affiche une moyenne des PUE de ses centres de données et cette mesure dans certains d’entre eux est prise entre le 1er juillet 2023 et le 30 juin 2024.
AWS présente lui aussi une moyenne annuelle pour 2024 de tous ses data centers en présentant les résultats des deux meilleurs, l’un situé en Europe, l’autre aux États-Unis.
Google Cloud établit une mesure trimestrielle et annuelle pour l’ensemble de ses data centers depuis 2015. C’est sans doute le plus rigoureux des trois hyperscalers en la matière. Toutefois, aucun ne présente les performances des data centers qu’ils utilisent en colocation.
Peu importe, « vous ne pouvez pas faire confiance aux PUE autodéclarés », tranche Babak Falsafi. « Vous devez le mesurer pendant douze mois et faire intervenir un auditeur externe afin de contrôler la mesure. C’est la bonne manière de le faire correctement », plaide-t-il.
Rappelons que la SDAE propose des programmes de certification et des outils afin de se préparer à cet audit. « Nous ne réalisons pas nous-même l’audit ».
« Vous ne pouvez pas faire confiance aux PUE autodéclarés ».
Babak FalsafiPrésident, Swiss Data Center Efficiency Association
Ce marqueur d’efficience n’est toutefois pas limpide pour tout le monde.
Selon Babak Falsafi, un PUE de 1,4 renseigne le fait que 71 % de la consommation électrique est dédiée aux équipements IT. Un PUE de 1,2 (la moyenne chez les hyperscalers) renseigne que 83 % de cette énergie est utilisée par les machines et le réseau. Or, il est difficile de connaître à partir de cette mesure la répartition de l’énergie utilisée par ces deux éléments.
Il n’est pas non plus un indicateur de la puissance de calcul disponible. « Dans le cas de l’IA, chaque génération de puce Nvidia double sa puissance thermique », affirme le chercheur. « La consommation d’énergie est donc multipliée par deux. Une grande partie de cette consommation est consacrée à l’énergie opérationnelle ».
Le PUE ne dit rien sur l’utilisation des serveurs
Le PUE ne reflète pas non plus l’utilisation des serveurs. Étant donné leur modèle économique, les fournisseurs cloud ont tout intérêt à maximiser l’utilisation des serveurs. Ces dix dernières années, ils ont fait l’effort logiciel de consolider les charges de travail pour atteindre des taux d’utilisation des serveurs compris entre 60 et 70 %.
Les entreprises ont souvent beaucoup plus de mal à le faire. L’expert signale qu’un hébergeur en colocation peut présenter un bon PUE, mais ses clients n’utilisent qu’une portion infime de la puissance de calcul déployé, souvent entre 7 et 15 %.
« Par exemple, si un data center affiche un PUE de 1,5 (ce qui n’est pas très bon), mais un taux d’utilisation de 60 % de la puissance de calcul, alors son opérateur a besoin de moins de serveurs, de moins de licences et consomme moins d’énergies » illustre Babak Falsafi. « Si vous provisionnez correctement votre puissance de calcul, non seulement cela vous coûte moins cher, mais vous aidez le colocateur à mieux provisionner son énergie ».
Cette notion est jugée importante, car la consommation d’énergie n’est pas forcément proportionnelle à la charge de travail. « Vous pouvez démarrer un serveur et à 0 % de charge, il utilise déjà 30 % de l’électricité lui étant alloué », déclare Babak Falsafi. D’où la nécessité de maximiser l’utilisation des serveurs.
Le PUE n’est pas non plus le miroir de l’efficience du réseau électrique et de son mix énergétique. Un data center avec un « mauvais » PUE émettra moins s’il est installé dans une région où l’électricité fournie est plus décarbonée qu’un autre, plus efficient, mais installé dans une région où l’électricité dépend du charbon ou du gaz. Il est donc difficile de comparer un data center à un autre à partir de cet indicateur.
D’où la nécessité, selon la SDEA, d’ajouter des notions de récupération de chaleur fatale, de suivi des flux d’énergie pour les équipements annexes d’un centre de données au PUE. De même, l’association entend évaluer les émissions incorporées dans la métrique CUE (Carbon Usage Efficiency) et les capacités de recyclage ainsi que de stress hydrique au sein de la mesure WUE (Water Usage Effectiveness). Les trois critères rassemblés donneraient ainsi une meilleure idée de l’efficience d’un centre de données.
Descendre à la maille du serveur et de ses composants
Richard Kenny, directeur général chez Interact, une société britannique de consultance en performance IT, lui, préfère miser sur l’ITEEsv, une autre norme ISO qui définit un indicateur de performance clé pour quantifier les caractéristiques d’efficience énergétique d’un serveur dans un data center. Il s’appuie également sur l’ITEUsv qui désigne, elle, l’utilisation moyenne des CPU dans un data center.
Le cabinet Interact dispose d’une grande quantité de données obtenues au cours de 16 millions de benchmarks. Ces informations lui servent de base pour aider ses clients on premise afin de remplacer ou reconfigurer des serveurs existants (quitte à acheter des équipements reconditionnés) en fonction des charges de travail. Un travail qui réclame d’inspecter l’impact de chaque composant, principalement le CPU et la mémoire vive.
« Les fournisseurs cloud ne partagent pas leur score ITEEsv parce qu’ils ne veulent pas être transparents sur leurs données ou ils ont des difficultés à l’être ».
Richard KennyDirecteur général, Interact
Selon l’expert, le décommissionnement des équipements ne devrait pas être conditionné par un cycle d’achat, mais suivant si le score ITEEsv du nouveau serveur ou du serveur remis à neuf est supérieur au précédent, tout en réduisant la quantité nécessaire d’unités pour la même charge de travail. Interact aurait ainsi fait économiser des millions d’euros d’achats IT à ses clients tout en réduisant la facture d’énergie.
A contrario, « les fournisseurs cloud ne partagent pas leur score ITEEsv parce qu’ils ne veulent pas être transparents sur leurs données ou ils ont des difficultés à l’être », note Richard Kenny. Il précise toutefois qu’il n’existe pas encore de standard pour mesurer correctement l’efficience des GPU et des puces IA. Concernant Nvidia, la charge de travail varie selon la configuration des opérations en virgule flottante (32 bits, 16 bits, 8 bits, etc.) et de la charge de travail. Les indicateurs actuels ont été conçus pour les CPU, la RAM et le stockage.