Mesurer l’empreinte ambivalente de l’IA sur l’environnement
Les entreprises peuvent utiliser l’IA pour aider à protéger l’environnement, notamment en l’utilisant pour prévenir les incendies de forêt et réduire les déchets des usines. Néanmoins, l’IA a sa propre empreinte carbone.
Les organisations sont impatientes de profiter des avantages de l’IA. L’une des promesses de cette technologie : réduire l’empreinte carbone de l’entreprise. Mais ne vous y trompez pas, car l’IA a sa propre empreinte carbone, qui varie en fonction du type d’IA et des techniques utilisées pour l’entraîner.
Par exemple, les modèles de traitement du langage naturel à grande échelle – plus précisément les modèles de transformation – ont une empreinte carbone très importante, souligne Kjell Carlsson, analyste principal chez Forrester. Les transformateurs sont un type d’architecture de réseau neuronal, comme les réseaux neuronaux récurrents (RNN) et les réseaux neuronaux convolutifs (CNN).
Contrairement aux RNN et aux CNN, les transformateurs peuvent comprendre les relations entre les données séquentielles. Cela est particulièrement utile pour les modèles NLP, car les transformateurs interprètent mieux le contexte des mots que les autres architectures.
« La question de l’empreinte carbone de l’IA n’est généralement pas une préoccupation des clients ou des utilisateurs finaux. Ce sont des journalistes et d’autres analystes qui la posent », observe Kjell Carlsson.
Néanmoins, si une entreprise veut comprendre le montant total de ses émissions de dioxyde de carbone, elle doit comprendre que l’IA y contribue.
L’empreinte carbone de l’IA
Un article de recherche publié par des membres de l’université du Massachusetts Amherst a estimé que, sur une durée de vie moyenne, les émissions de carbone, associées à l’entraînement d’un modèle de transformateur tel que BERT ou GPT-2 – deux architectures neuronales –, sont équivalentes à l’empreinte carbone d’une voiture, carburant compris.
Google et OpenAI ont publié un document qui compare les performances et les besoins en énergie des architectures à transformateur et à transformateur évolué. Cette dernière est plus rapide et nécessite moins de puissance de traitement (comme expliqué ci-dessous). Les auteurs du document encouragent les data scientists à prendre en compte quatre facteurs lors du calcul de l’empreinte de l’IA :
- L’algorithme. Un transformateur évolué utilise 1,6 fois moins d’opérations en virgule flottante par seconde et nécessite 1,1 à 1,3 fois moins de temps d’entraînement qu’un transformateur. Un transformateur évolué est également légèrement plus précis qu’un transformateur.
- Les processeurs. L’unité de traitement Tensor personnalisée de Google (TPU v2, qui est un GPU) exécute les transformateurs et les transformateurs évolués 4,3 et 5,2 fois plus rapidement que les GPU Nvidia Tesla P100. Le TPUv3 utilise également environ 1,2 fois moins d’énergie dans chaque cas. Les architectures Ampere et Turing seraient en revanche plus performantes et moins coûteuses pour d’autres cas d’usage, selon une analyse du laboratoire national de Lawrence-Berkeley. Il ne faut pas non plus oublier les apports et la consommation des autres composants du système, ceux des CPU en premier lieu.
- Le centre de données. Les centres de données en cloud sont environ deux fois plus efficaces sur le plan énergétique qu’un centre de données d’entreprise typique.
- Le mix énergétique. Une plus grande utilisation des énergies propres réduit les émissions de carbone. Sélectionner une région cloud ou installer ses infrastructures dans un pays où l’on favorise les énergies peu carbonées ou renouvelables est donc important. Les émissions peuvent varier entre 5 et 10 fois suivant les data centers.
L’article de Google et OpenAI se concentre sur l’entraînement des modèles d’IA plutôt que sur l’inférence. Pourtant, une phase de formation représente environ 10 % de la consommation d’énergie d’un modèle de machine learning, tandis que l’inférence représente les 90 % restants. Le coût énergétique de la formation demeure toutefois plus facile à calculer.
Mesurer et réduire l’empreinte carbone de l’IA
« Il y a un réel besoin d’interroger la manière dont vous construisez ces systèmes. Entraînez-vous un algorithme inutilement complexe ? À quelle fréquence procédez-vous au réapprentissage ? », liste Steven Mills, directeur général, associé et responsable de l’éthique de l’IA au sein du Boston Consulting Group (BCG) GAMMA.
Dan SimionVP et responsable pratique IA, data science et analytique, Amérique du Nord, Capgemini
« Il y a aussi la chaîne d’approvisionnement de l’IA, l’acquisition d’algorithmes, l’acquisition de matériel de calcul et la réflexion sur l’empreinte carbone. Par exemple, je peux m’approvisionner dans des régions de SAP qui utilisent des sources d’énergie plus durables, ce qui réduira intrinsèquement mon empreinte carbone », note-t-il.
Mais comment un data scientist peut-il mesurer l’empreinte de l’IA ?
BCG GAMMA et d’autres ont annoncé CodeCarbon, un projet open source qui estime l’empreinte carbone de l’IT, ou plus précisément l’énergie utilisée par les centres de données hébergés en privé et l’infrastructure sous-jacente des fournisseurs de cloud. Le projet a pour but d’aider les spécialistes des données à prendre des décisions plus écologiques en matière d’acquisition de capacités de calcul. Il les aide également à optimiser leur code.
« Si vous voulez faire fonctionner l’IA, vous allez avoir besoin des “machines”, donc vous allez laisser une empreinte carbone. Plus vous obtenez de données et plus les modèles [deviennent] compliqués, plus vous allez consommer d’énergie pour obtenir les modèles d’IA que vous recherchez », constate Dan Simion, vice-président et responsable de la pratique de l’intelligence artificielle, de la data science et de l’analytique pour l’Amérique du Nord chez Capgemini.
Les conséquences écologiques de l’IA
Néanmoins, il existe de nombreux cas d’usage dans lesquels les organisations utilisent une combinaison d’IA et d’IoT industriel (AIoT) pour réduire leur empreinte carbone. Selon une étude récente du BCG, les entreprises peuvent utiliser l’IA pour surveiller leurs émissions, prédire leurs émissions futures et – fortes de ces connaissances – procéder à des ajustements pour réduire les émissions.
L’IA peut également optimiser la logistique, réduire les matériaux nécessaires pour construire des biens ou réduire autrement les émissions de carbone. Par exemple, les recherches du BCG estiment que d’ici 2030, l’IA pourrait réduire les émissions de gaz à effet de serre de 5 à 10 % à l’échelle mondiale, ce qui se traduirait par une diminution de 2,6 à 5,3 gigatonnes des émissions de CO2.
Ici, les conséquences des modèles de deep learning sont contrebalancées par les retours positifs qu’ils pourraient apporter. En outre, l’IA pourrait générer entre 1 000 et 3 000 milliards de dollars de valeur lorsqu’elle est appliquée à la durabilité des entreprises.
L’IA pour l’agriculture
L’un des clients vignerons du BCG prévoit de ne jamais péricliter, mais l’entreprise ne sait pas quelles terres elle possédera à l’avenir. La propriété foncière est importante pour les viticulteurs, car chaque parcelle produit des rendements plus ou moins élevés (et des vins plus ou moins qualitatifs) au fil du temps en fonction de plusieurs facteurs, notamment la composition du sol, les précipitations, les inondations et les mouvements des eaux de surface.
À partir de ce type de données, le BCG a construit un modèle de rendement des cultures qui permet de comprendre comment les rendements des cultures évoluent dans le temps, affirme Mike Lyons, directeur général et associé du BCG. La compréhension de l’état futur des rendements agricoles permet d’orienter les investissements et les désinvestissements dans le domaine de l’immobilier.
« Le résultat final a permis au client d’acheter, de vendre et de protéger des terres d’une manière très prospective et stratégique afin qu’il puisse continuer à maintenir son domaine viticole », assure Mike Lyons.
Dan Simion, de Capgemini, a déclaré que son entreprise utilisait l’IA pour réduire l’empreinte carbone associée aux chaînes d’approvisionnement, aux processus de fabrication et à la construction de modèles d’apprentissage automatique. Capgemini a mis au point son propre calculateur de performance énergétique de l’IA : Carbon AI.
L’ESN s’est également associée à des universités pour comprendre comment les schémas de migration des baleines évoluent en raison du changement climatique. En outre, Capgemini utilise la vision par ordinateur pour identifier les arbres malades dans les forêts qui sont difficiles à atteindre à pied.
D’autres groupes spécialisés dans l’IA s’impliquent dans des projets similaires. DataRobot, par exemple, s’est associée à Entel Ocean, l’unité numérique de la société de télécommunications chilienne Entel, pour identifier les feux de forêt au Chili. Entel Ocean a installé des dispositifs IoT sur les arbres pour collecter les données environnementales. L’entreprise a utilisé les modèles d’apprentissage automatique et de prédiction de DataRobot pour traiter ses données collectées et prédire les feux de forêt dans la région.
Une urgence environnementale et réglementaire
L’IA a un effet à la fois négatif et positif sur l’environnement, et il est important de mesurer les deux. De nombreuses organisations ressentent la pression de l’Accord de Paris, qui impose aux États membres de réduire leur empreinte carbone de 55 % d’ici à 2030 par rapport à 1990.
Des outils et des cadres de travail apparaissent pour aider à comprendre l’impact de l’IA. Parallèlement, la technologie continue de s’améliorer à chaque niveau de la pile technologique, ce qui devrait également contribuer à réduire les émissions de carbone, des algorithmes aux centres de données et au-delà.