Green IT : AWS mise sur l’optimisation par les clients, peu sur la transparence
Plutôt que de s’évertuer à fournir des métriques précises sur la consommation électrique réelle de ses infrastructures, AWS vante ses pratiques plus ou moins opaques, puis encourage et accompagne ses clients dans la « modernisation » de leurs charges de travail afin de baisser leurs usages.
Well Architected Framework. Philippe Desmaison, responsable de la durabilité et conseiller technique exécutif chez AWS France, le présente comme le « livre de chevet des architectes » sur AWS.
Historiquement, cette méthodologie rassemblant les bonnes pratiques d’architecture sur AWS s’articulait autour de quatre piliers : « la sécurité, la résilience, la performance, le coût ».
« Nous avons ajouté un pilier consacré aux opérations et à la maintenabilité, puis il y a quatre ans, le pilier développement durable », relate le responsable.
Outre des principes généraux, cette bible technique est accompagnée de plus de 160 gabarits d’implémentation. « Nous avons environ une trentaine de bonnes pratiques déclinées sous six thèmes, liés à une approche d’amélioration continue », présente Philippe Desmaison. « Il s’agit toujours de faire en sorte de maintenir un équilibre entre les différents piliers ».
« Si je décide, par exemple, de ne pas mettre de la résilience partout parce que ce n’est peut-être pas utile, cela va me permettre de travailler sur le pilier durabilité », illustre-t-il. « Sans durabilité, c’est-à-dire sans frugalité, cela va ressortir sur mes coûts, au bénéfice de la résilience et de la performance ».
Pour AWS, cette sorte de jeu à somme nulle est fonction d’une responsabilité partagée. Le fournisseur cloud s’engage à fournir des services plus performants et efficients dans ces domaines, tandis que le client est encouragé à suivre des bonnes pratiques.
Responsabilité partagée… et une certaine opacité
« Cela fait maintenant douze ans que je travaille chez AWS », déclare Philippe Desmaison. « Nous expliquions déjà aux clients que nous sommes responsables de la sécurité du cloud – le pare-feu doit fonctionner comme nous avons expliqué qu’il fonctionne. Les clients, eux, sont responsables de la sécurité dans le cloud, typiquement des règles du firewall », illustre-t-il. « C’est la même démarche en matière de durabilité ».
Pour illustrer cet effort, Amazon affirme qu’en 2023 il a rempli « l’objectif de produire 100 % de l’électricité consommée dans le cadre de [ses] activités à partir d’énergies renouvelables ».
Plus précisément, le groupe a investi dans 600 projets d’énergie renouvelable – réalisés ou en cours de réalisation – pour un total de 28 gigawatts de puissance dans 27 pays, où il a installé 22 de ses 36 régions cloud. Parmi ces projets, il compte des PPA, des contrats d’achats d’énergie renouvelable, mais il ne détaille pas la portion de PPA sur site, ceux qui alimenteraient directement ses data centers, de ceux qui impliquent la mise sur un réseau d’un volume donné d’énergie renouvelable par les producteurs.
Et l’eau ?
Concernant sa consommation d’eau, AWS voudrait adopter la même philosophie. C’est plus difficile. Son calcul passe par la contribution à des projets d’aide à la création ou au maintien de zones humides, à l’irrigation de cultures, de détection de fuites dans des systèmes d’assainissement de l’eau, etc.
« Nous ne sommes jamais totalement sûrs, mais nous savons que nous allons consommer une certaine quantité d’énergie à notre arrivée sur un marché », précise Philippe Desmaison. « Nous voulons faire en sorte que notre consommation soit couverte par les projets nous permettant de ramener sur le réseau la même quantité d’énergie renouvelable que celle que nous consommons ».
Ce qui ne veut pas dire que l’énergie réellement consommée est « verte ». Comme n’importe quel consommateur, AWS est largement dépendant du mix énergétique des pays où ses datacenters sont installés.
Régions cloud : les « pièges à éviter »
Selon Philippe Desmaison, le choix de la région cloud est la première entrée du Well-Architected Framework. « Si vous venez dans les 22 régions cloud mentionnées, vous êtes sûr que nous participons à réinjecter de l’énergie renouvelable sur le réseau électrique », affirme-t-il. « Après, pour des raisons réglementaires, de coûts, de latence, un client peut faire le choix d’une région non concernée par ce programme, mais il bénéficie de cet éclairage ».
Ensuite, le responsable, son équipe et le partenaire d’AWS signalent les « pièges » à éviter. « Certains clients vont chercher à abaisser les coûts à outrance. Supposons que l’un d’entre eux veuille déployer une ferme de calcul sur notre région située dans l’Oregon, parce que cela coûte moins cher », illustre-t-il. « Il est évident que le mix énergétique de cet État américain n’est pas celui que l’on va trouver en France ».
De même, une approche consistant à migrer les charges de travail vers différents data centers en fonction du moment de la journée où l’énergie renouvelable est injectée sur le réseau serait une mauvaise idée. « Ce n’est pas Amazon qui le dit, mais les chercheurs et les acteurs du marché de l’énergie », indique le responsable de la durabilité. « Si tout le monde décide d’aller dans un pays donné au même moment, outre la surcharge potentielle sur les datacenters, les producteurs d’énergie seront obligés de provisionner énormément d’énergie renouvelable et quand ce n’est plus possible d’allumer le brûleur [les centrales thermiques N.D.L.R.] ».
De son côté, AWS peut davantage maîtriser la consommation de ses data centers. En 2023, AWS évoquait un PUE moyen global de 1,15. En Europe, dans la région cloud de Francfort, il était de 1,33, de 1,12 à Stockholm et en Espagne, et de 1,10 en Irlande. Il affirmait consommer en moyenne 0,18 litre par kWh.
Matériaux de construction durables à l’extérieur et à l’intérieur des data centers, prolongation de la durée de vie des disques durs (entre 2023 et 2024, AWS dit avoir évité l’achat de 295 000 disques neufs), reconditionnement des serveurs…, voilà quelques-unes des pratiques affichées par le fournisseur. Il dit avoir « recyclé », ou « vendu sur le marché secondaire », plus de 23,5 millions de composants. Ce qui n’est pas forcément une bonne nouvelle. Il convient généralement de distinguer ce qui est vendu – donc reconditionné – de ce qui est recyclé, c’est-à-dire détruit pour être utilisé dans la fabrication d’un autre bien.
Encourager les clients à migrer vers les nouvelles offres
Les clients, eux, s’intéressent davantage aux instances disponibles. Et il a forcément besoin de l’aide d’AWS ou d’un tiers pour s’y retrouver : lors de l’AWS Summit Paris, le fournisseur a évoqué plus de 850 types d’instance (!). Cependant, ces deux dernières années, AWS affirme que plus de 50 % des nouvelles capacités CPU reposent sur ses processeurs ARM Graviton conçus par le fournisseur.
« Au moment où je vous parle, il y a plus de serveurs Graviton que de la totalité des serveurs EC2 en 2019 ».
Philippe DesmaisonResponsable de la durabilité et conseiller technique exécutif, AWS France
« Au moment où je vous parle, il y a plus de serveurs Graviton que de la totalité des serveurs EC2 en 2019 », assure Philippe Desmaison. « Dans le Well-Architected Framework, nous conseillons d’utiliser les instances équipées de nos puces. Les processeurs Graviton ont un rapport de performance par watt plus intéressant et leur tarification est généralement plus avantageuse à long terme ».
Cette maîtrise, les clients peuvent l’avoir pour des instances EC2 – moyennant l’adaptation du code de l’application à héberger. Si de plus en plus de services managés s’appuient sur les processeurs Graviton, les clients n’ont pas forcément la maîtrise des CPU sous-jacents utilisés par tous les services.
Ce même effort de transition est nécessaire pour les entreprises qui voudraient exploiter les accélérateurs Trainium et Inferentia 2 pour leur charge de travail d’IA. « Inferentia consomme environ 50 % d’énergie en moins par rapport à des GPU classiques du marché ».
Le manque d’un standard international pour évaluer les émissions du cloud
Cela étant dit, AWS ne présente pas publiquement le TDP (enveloppe thermique, thermal design power) ni ne donne accès à la télémétrie de consommation énergétique de ses puces.
De fait, il y a une difficulté intrinsèque à répartir la consommation électrique par instance. AWS a participé à la mise à jour du « référentiel par catégorie de produit des services d’hébergement informatique en centre de données et de services cloud ».
« Cela reste une vision franco-française, qui n’existe pas encore à l’état mondial et qui ne correspond peut-être pas aux attentes des clients. »
Philippe DesmaisonResponsable de la durabilité et conseiller technique exécutif, AWS France
Ce document de 82 pages publié le 11 avril par l’ADEME propose une méthodologie pour estimer la consommation électrique et les émissions de carbone des services IaaS, PaaS, SaaS et FaaS. L’exercice est nouveau. « Cela reste une vision franco-française, qui n’existe pas encore à l’état mondial et qui ne correspond peut-être pas aux attentes des clients », estime Philippe Desmaison.
« Pourquoi ? Parce que c’est extrêmement détaillé, ça prend du temps, c’est compliqué, et en fait, arriver à avoir ces données-là, les remonter aux usages de telle instance ou de tel service AWS est une autre chose ». Le projet de l’ADEME est important pour le fournisseur de cloud, mais « cette méthodologie de mesure de la consommation et des émissions n’aura de la valeur que lorsqu’elle sera globale ».
AWS préfère les « proxymétriques » pour accompagner ses clients
Avec les réglementations européennes, AWS sera obligé de transmettre les valeurs exprimées en tonnes équivalent carbone.
« Ce sera une obligation, mais le CO2, ça reste une valeur imparfaite », avance Philippe Desmaison. « Prendre les transports en commun ou un covoiturage, c’est mieux que de prendre sa voiture. On le sait tous. Nous sommes le transport en commun de l’IT. L’on sait que c’est mieux. Ensuite, nous voyons ensemble avec les clients ce qu’il est possible de faire ».
« Nous sommes le transport en commun de l’IT ».
Philippe DesmaisonResponsable de la durabilité et conseiller technique exécutif, AWS France
Au lieu de se concentrer sur les valeurs de consommation transmises par les équipements ou des estimations en tonnes équivalent carbone, Philippe Desmaison conseille aux entreprises « la mise en adéquation des besoins et des usages ».
Cela passe par la mise en place de « proxymétriques ». « Le carbone est-il une valeur opérationnelle au quotidien ou de suivi à long terme ? », interroge le responsable de la durabilité. « Il s’agit plutôt de travailler à réduire les usages et à supprimer ceux qui sont inutiles ».
Plus précisément, cela réclame l’évaluation des charges de travail cloud et leur impact global sur l’activité de l’entreprise et ses clients, ainsi que le potentiel effet de leur décommissionnement.
Ensuite, les clients sont invités à préparer des stratégies à long terme de réduction de la puissance de calcul ou du volume de stockage, en prévoyant des éléments de comparaison par utilisateur et par transaction.
Le bon dimensionnement des instances (right sizing) est un passage clé dans cette revisite des usages. « Deux hôtes utilisés à 30 % sont moins efficients qu’un seul utilisé à 60 %, en raison de la consommation d’énergie de base par hôte », explique AWS dans sa documentation. « Dans le même temps, réduisez ou minimisez les ressources inactives, le traitement et le stockage afin de réduire l’énergie totale requise pour alimenter votre charge de travail ».
Comme mentionné plus haut, le recours à des instances plus récentes, l’usage de services managés mutualisés, mais aussi de services de stockage très froid sont conseillés, tout comme le fait de maintenir la compatibilité la plus large possible d’une application avec les appareils des utilisateurs finaux.
C’est un travail continu. « Notre ennemi c’est l’effet rebond », note Philippe Desmaison. « Dès lors que vous avez une ressource qui n’est plus contrainte ou moins contrainte, faites attention justement de ne pas perdre le calcul et de perdre la vue de ce que vous consommez réellement. D’où l’utilisation des proxymétriques pour le relier au métier ».
Si c’est un élément qui peut entrer dans l’équation au moment de passer au cloud, les conseillers d’AWS et les intégrateurs interviennent plus souvent dans un second temps.
« Le lift and shift, c’est davantage du covoiturage. Dès lors qu’on va travailler sur de la modernisation, sur l’adoption des conteneurs, sur du serverless, là, nous sommes sur du transport en commun », compare le responsable.