Numérique responsable : comment résoudre le casse-tête posé par l'IA générative
Les grandes entreprises françaises ont franchi un cap de maturité sur le numérique responsable. Mais cette nouvelle maîtrise est mise au défi par l'essor de l'intelligence artificielle générative, dont les impacts seraient masqués par les hyperscalers.
L'édition 2025 du GreenTech Forum, qui se tenait les 4 et 5 novembre à Paris, témoigne d'une appropriation croissante des principes du numérique responsable parmi les grandes entreprises françaises.
Les organisations représentées semblent en tout cas avoir franchi un cap de maturité. La simple mesure de l'empreinte carbone a laissé place à des stratégies plus structurées, qui s'appuient sur un pilotage de plus en plus fin et multicritère qui révèle mieux les véritables sources d'impact sur l’environnement.
De la mesure ponctuelle au pilotage environnemental
Des industriels comme Enedis et Arkema le démontrent que l'enjeu réside désormais dans un pilotage environnemental industrialisé et multicritère, seul à même de
Chez l'opérateur de réseau Enedis, passé le bilan classique est passé à une évaluation exhaustive qui s’appuie sur les 16 indicateurs du Product Environmental Footprint (PEF).
Cette analyse multicritère a révélé que le changement climatique ne représente que 27 % de l'impact global du SI d'Enedis. En revanche, l'épuisement des ressources (fossiles, minerais, métaux) en constitue 42 %.
Ce constat – partagé par Manon Beaufils, pilote GreenIT du groupe - a redéfini les priorités d'action et mis en lumière les enjeux stratégiques de résilience des chaînes d'approvisionnement jusqu'alors masqués par l’nacien prisme unique du CO2.
Autre exemple, chez Arkema, une première mesure carbone a confirmé que l'empreinte de l'IT était « très inférieure à 1 % du chiffre global », dixit son DSI, Sébastien Michon.
L'enjeu était donc moins une réduction carbone massive que d'établir une culture de la responsabilité environnementale parmi les 20 000 collaborateurs. Pour ce faire, le passage à un outil spécialisé (Verdikt) s'est imposé pour transformer un exercice ponctuel en outil de pilotage.
La GenAI, une opacité inédite
Mais ce mouvement vers une IT plus « green » se heurte à un nouveau défi : l'intégration de l'intelligence artificielle dans le périmètre de mesure et le manque de transparence des fournisseurs.
L'IA générative introduit en effet une opacité inédite. Tout au long du GreenTech Forum, les professionnels IT ont pointé le flou que les fournisseurs d'IA et de cloud entretiennent.
Pour Jacques Kluska (Schneider Electric), Hélène Levrault (Verdikt) et Caroline Vateau (Capgemini Invent), comparer les impacts des modèles de Google ou de Mistral AI (seuls à avoir communiqué des données) relèverait de la gageure. Les méthodologies et périmètres de calcul varient. Ils sont rarement divulgués. Et ils rendent toute évaluation comparative hasardeuse – regrettent en résumé les trois experts.
À cette opacité s'ajoute le phénomène du « Shadow AI ». L'IA générative pénètre les entreprises de manière décentralisée, via les usages individuels sur des plateformes publiques comme ChatGPT, ou via son intégration discrète au sein de logiciels existants.
Cette diffusion quasi virale rend l'empreinte matérielle et énergétique de la GenAI pratiquement impossible à tracer, remarque David Romeyer, architecte GreenIT chez Michelin, ce qui crée un « iceberg » d'impacts dont seule une infime partie serait visible.
La gouvernance comme rempart
Face à cette complexité, la gouvernance s'impose comme un levier majeur. Les entreprises les plus matures déploient deux approches complémentaires.
Schneider Electric revendique une démarche centralisée. Le développement de ses solutions d'IA a été fédéré au sein d'un pôle unique pour standardiser les processus d'analyse de risque en amont de chaque projet, confie Jacques Kluska, son expert IA responsable.
Une autre méthode est expérimentée chez Vinci. Marie Ait Daoud, Green IT Manager à la DSI, mobilise des leviers connexes : en s'appuyant sur les impératifs de cybersécurité, l'entreprise définit une liste d'IA autorisées, limitant ainsi la prolifération d'outils non maîtrisés.
Ces stratégies partagent cependant un principe commun : elles challengent systématiquement le besoin réel d'une IA pour une tâche donnée.
D'autres leviers sont aussi activables. L'une des pistes est le recours aux « Small Language Models » (SLM) — même si leur taille tend à croître (2 à 8 milliards de paramètres), relève avec ironie Jacques Kluska. Pour des tâches industrielles spécifiques, ces modèles offrent des performances suffisantes, pour un coût financier et environnemental bien moindre.
Une autre bonne pratique s'impose, en plus du choix d’un SLM : faire l'inférence dans une région où l’énergie est à faible intensité carbone (comme la France ou la Suède). Avec cette double approche, il serait possible d'atteindre des gains sur l'impact carbone d'une requête qui vont jusqu'à x100.
La GenAI irréconciliable avec le GreenIT ?
Le rapport d'Entreprises pour l'Environnement (EPE) met pour sa part en lumière une dichotomie entre IA « classique » et GenAI.
L'IA analytique « historique » aurait prouvé sa valeur environnementale dans l'optimisation ou la maintenance prédictive. En revanche, l'IA générative, gourmande en ressources, reste une promesse dont le « business case » est encore à écrire.
L'expert de Schneider Electric, Jacques Kluska confirme que l'impact environnemental varie considérablement selon le type d'IA. Les modèles complexes – dont font partie les LLMs - requièrent beaucoup plus d'énergie et de matériel.
David Romeyer de Michelin l'illustre en s'arrêtant sur un composant essentiel : les processeurs graphiques. Les CPU classiques, à environ 100W de consommation sont éclipsés par des GPU qui peuvent atteindre 2000W. « Nous avons changé de dimension », résume l'architecte. « Penser que l'on va résoudre le problème en optimisant le PUE, ça ne marche plus ».
Des actions sur le Make, un angle-mort sur le Buy
Et quid la fameuse question du « Make or Buy » ? Elle prend ici une dimension supplémentaire. La conception en interne de solutions d'IA – notamment avec des SLM - permet de maîtriser plus facilement les impacts écologiques. Avec cette option, finie l'opacité des intermédiaires.
Sur ses IA développées en interne, Schneider Electric a par ailleurs recours à des ACV (Analyse du Cycle de Vie). Les études, sur 16 critères auraient montré un ratio de gain environnemental très élevé (de 1:60 jusqu'à 1:1000) pour l'IA prédictive et analytique.
Et l’impact négatif de ces IA serait largement compensé par les gains d'énergie générés par les solutions. Ce serait le cas par exemple avec l’optimisation des systèmes CVC (Chauffage, Ventilation et Climatisation).
L'industriel s'appuie en outre sur des référentiels reconnus, comme l'AFNOR Spec IA Frugale, qui fournit des définitions, des méthodes de calcul et 31 bonnes pratiques.
Les données fournisseurs à prendre avec des pincettes
Evidemment, si la Gen AI est fournie par un tiers, ces bonnes pratiques ne sont pas applicables. Et la mesure se heurte à un mur. Pour ces modèles propriétaires, les chiffres d'impact d'une inférence ne sont que publiés, voire pas du tout – regrettent quasiment tous les intervenants.
Et lorsque des chiffres sont communiqués, les méthodologies de calcul et les périmètres diffèrent d'un acteur à un autre. Jacques Kluska cite l'étude publiée par Google, qui ne mentionne pas le nombre de tokens échangés, rendant difficile les comparaisons.
Richard Bury et Fabien Metivet, respectivement spécialistes du numérique responsable d'EDF et du Crédit Agricole, l’ont confirmé au MagIT lors du Forum : la confiance accordée aux données des hyperscalers est « limitée ».
La raison ? L'empreinte carbone qu’ils communiquent ne correspondrait pas à la valeur réelle de leurs datacenters (de plus en plus implantés dans des zones en tension énergétique et hydrique). Cette valeur serait minorée par les effets de compensation et l'achat de certificats d'économie d'énergie.
Pourquoi un tel manque de transparence ? Officiellement, les fournisseurs invoquent des raisons de sécurité et de secret industriel, répond Fabien Metivet qui attend cependant de ces acteurs qu’ils « ouvrent le capot ». Mais sans se faire d’illusions : « l'opacité des fournisseurs est un problème qui dure depuis longtemps ».
La GenAI, un problème d'abord pour le B2C ?
Reste un dernier levier d’action : les appels d'offres.
Dans des entreprises externalisées (72 % pour le numérique chez EDF), les achats constituent un moyen puissant de challenger les fournisseurs en renforçant les exigences. A condition d’accepter de ne pas sélectionner les LLM sur leurs seules performances techniques et sur les seules variables financières.
Une gageure à l'ère du court terme et d’un certain désengagement des grandes puissances à l'égard des enjeux environnementaux ?
