ktsdesign - Fotolia

GreenAI : comment réduire l’impact écologique d’une Intelligence artificielle ?

Un rapport de la société de conseils AI Builders donne plusieurs pistes concrètes pour rendre une intelligence artificielle plus sobre et frugale. Et moins chère. Des conseils qui recoupent des bonnes pratiques déjà évoquées par d’autres experts.

Face à une consommation énergétique de l’intelligence artificielle qui explose, notamment avec l’essor de l’IA générative particulièrement gourmande en ressources diverses (eau, métaux rares, etc.), les entreprises vont de plus en plus devoir intégrer des stratégies pour limiter l’empreinte carbone de leurs projets dans ce domaine. Ne serait-ce que pour des raisons de coûts (énergie et prix étant intimement corrélés).

Pour y arriver, la société de conseil AI Builders a sorti un rapport qui propose plusieurs leviers d’action – qui vont de la prévention en amont à l’optimisation des modèles en production.

Un impact qui explose avec l’IA générative

Avant toute chose, réduire l’impact de l’intelligence artificielle commence par une prise de conscience. L’IA, et plus particulièrement l’IA générative, est extrêmement énergivore.

Une requête auprès d’un LLM consommerait dix fois plus d’énergie qu’une requête sur un moteur de recherche classique (chiffre de l’Agence Internationale de l’Énergie).

L’entraînement de ces grands modèles de langage consommerait pour sa part jusqu’à 100 000 fois plus d’énergie que celui d’un modèle de machine learning plus traditionnel.

Ces chiffres prennent une tout autre ampleur quand on considère la démocratisation des usages de l’IA. Pour l’ADEME, cette montée en puissance se traduit très concrètement, de manière industrielle, dans les centres de données. Leur consommation énergétique pourrait être multipliée par trois d’ici 2030, rappelle AI Builders.

Dans ce contexte, l’adoption d’une IA plus responsable devient un enjeu stratégique, d’autant plus (si l’on en croit Gartner) que la production d’énergie risque de ne pas pouvoir suivre la demande.

Anticiper l’impact environnemental dès la conception

AI Builders insiste sur la nécessité d’intégrer les considérations écologiques dès la phase d’étude d’opportunité d’un projet IA.

Tous les systèmes d’IA ne présentent pas le même impact carbone. Une évaluation en amont permet d’identifier les plus énergivores. Cette approche préventive passe notamment par la mise en place d’un « écoscore IA », un indicateur qui permet de prioriser les projets en fonction de leur valeur ajoutée et de leur consommation énergétique et de leur empreinte carbone.

L’objectif est d’éviter d’investir dans des solutions trop gourmandes qui n’apportent pas grand-chose à l’entreprise.

Privilégier les SML et limiter les usages

Le rapport met en avant d’autres pistes pour limiter l’empreinte directe.

L’une d’elles est l’utilisation de modèles plus légers et plus spécialisés, les SLM (Small Language Models). Beaucoup plus petits que les LLM généralistes, ils consomment bien moins d’énergie, à performance équivalente.

Des modèles entraînés sur moins de données (mais de qualité) sont également plus frugaux.

Enfin, d’autres pratiques réduisent drastiquement cette empreinte directe des algorithmes, comme le fait de n’utiliser les LLM que quand cela est nécessaire, et avec des requêtes mieux conçues.

Regarder aussi les datacenters

Côté infrastructure, l’optimisation passe par le choix d’héberger et de faire tourner les algorithmes dans des centres de données alimentés par des énergies renouvelables ou à faible intensité carbone. Or ce facteur varie fortement selon les régions.

Pour l’impact indirect, AI Builders reprend et valide les recommandations sur la prolongation de la durée de vie des serveurs et sur leur recyclage.

Des bonnes pratiques qui montent

Ces recommandations trouvent un écho dans celles formulées par d’autres experts du secteur.

Comme le soulignaient deux spécialistes dans les colonnes du LeMagIT – Jean-Baptiste Bouziges, co-fondateur d’Ekimetrics et Isabelle Ryl, vice-president for AI & director of Paris Artificial Intelligence Research Institute, PSL Research University – un des deux leviers fondamentaux pour limiter l’empreinte carbone d’une IA réside dans le choix des modèles.

Plutôt que de recourir systématiquement à de vastes modèles généralistes, en particulier dans l’IA générative, les entreprises gagneraient à privilégier des modèles plus frugaux et optimisés pour des tâches précises – et à « mixer » ceux-ci avec des formes d’IA plus classiques et plus sobre. « D’ici quelques mois, les LLMs seront un outil comme les autres, un de plus, dans la boîte à outils IA », prédit Jean-Baptiste Bouzige.

L’autre levier majeur – qui recoupe également les conseils de AI Builders – consiste à mieux sélectionner les cas d’usage. Et de manière beaucoup plus drastique.

Cette démarche passe d’abord par une sensibilisation et une formation en interne (que fait et que ne fait pas la GenAI ?) afin de pouvoir répondre, le plus en amont possible à « la vraie question [qui] est : ont-ils réellement besoin de LLMs ? », dixit Isabelle Ryl.

Lire aussi sur le sujet :

La frugalité de l’IA : un impératif et des solutions

Le développement de l’IA se heurtera à court terme aux limites de l’énergie et des données disponibles. Il est donc critique d’agir en faveur d’une plus grande frugalité. Une solution consiste à favoriser de petits modèles spécialisés.

Les Assistants d’IA générative et LLM sont-ils toujours la meilleure option ?

Les assistants d’IA générative et les LLM pullulent. Exemples à l’appui, un expert en data science chez Cagemini Invent explique quand ils sont utiles et quand d’autres solutions sont plus efficaces.

Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM