IA : une certaine prise de conscience des conséquences sur l’environnement

Les data centers et les mégamodèles consomment des quantités massives d’énergie et sont nuisibles à l’environnement. Les entreprises peuvent prendre des mesures pour réduire leur impact environnemental.

L’entraînement d’un modèle d’IA avancé nécessite du temps, de l’argent et des données de haute qualité. Il faut aussi de l’énergie, beaucoup d’énergie.

Entre le stockage des donnĂ©es dans des data centers de grande taille et l’utilisation de ces donnĂ©es pour entraĂ®ner un modèle de machine learning ou de deep learning, la consommation d’énergie gĂ©nĂ©rĂ©e par l’IA est Ă©levĂ©e. Bien que rentables, ces « mĂ©gamodèles Â» posent un risque environnemental, selon les experts.

La consommation des mégamodèles

Par exemple, OpenAI a entraĂ®nĂ© son modèle GPT-3 sur 45 tĂ©raoctets de donnĂ©es. Pour obtenir la version finale de MegatronLM, un modèle de langage similaire Ă  GPT-3, mais plus petit, Nvidia a utilisĂ© 512 GPU V100 pendant neuf jours.

Un seul GPU V100 peut consommer entre 250 et 300 watts. Si nous prenons l’hypothèse de 250 watts, alors 512 GPUS V100 dĂ©pensent 128 000 watts, soit 128 kilowatts (kW). Le fonctionnement pendant neuf jours signifie que l’entraĂ®nement du MegatronLM a consommĂ© 27 648 kilowattheures (kWh).

D’après la U.S. Energy Information Administration, un mĂ©nage moyen utilise 10 649 kWh par an. Par consĂ©quent, la formation de la version finale de MegatronLM a presque employĂ© la quantitĂ© d’énergie que consomment en un an trois foyers amĂ©ricains. Ă€ titre de comparaison, selon une Ă©tude datant de 2016 de la Commission de la rĂ©gulation de l’énergie, les foyers français consommaient en moyenne 4 679 kWh par an.

Si l’IA est une pratique énergivore, il y a des procédés pour pallier ce défaut. Ainsi, les nouvelles techniques réduisent la quantité de données nécessaires à l’entraînement des modèles d’apprentissage automatique et profond. Pour autant, de nombreux algorithmes ont encore besoin d’une énorme quantité de données, afin de mener à bien une phase d’entraînement initiale, et de données supplémentaires pour rester à jour.

Consommation d’énergie des centres de données

L’IA devenant de plus en plus complexe, il faut s’attendre à ce que certains modèles utilisent encore plus de données. C’est un problème, car les data centers sont les principaux responsables de la consommation d’énergie.

« Les centres de donnĂ©es auront probablement le plus d’impact sur l’environnement Â», dĂ©clare Alan Pelz-Sharpe, fondateur du cabinet d’analyse Deep Analysis.

Les exemples sont nombreux. The Weather Company d’IBM traite près de 400 tĂ©raoctets de donnĂ©es par jour pour permettre Ă  ses modèles de prĂ©voir le temps plusieurs jours Ă  l’avance dans le monde entier. Facebook gĂ©nère environ 4 pĂ©taoctets (4 000 tĂ©raoctets) de donnĂ©es par jour.

En outre, les humains ont produit 64,2 zettaoctets de donnĂ©es en 2020. Cela reprĂ©sente environ 58 389 559 853 tĂ©raoctets, selon la sociĂ©tĂ© d’études de marchĂ© IDC.

Selon le groupe de rĂ©flexion sur l’énergie et le climat Energy Innovation, les plus grands centres de donnĂ©es ont besoin d’une capacitĂ© de production d’électricitĂ© de plus de 100 mĂ©gawatts, ce qui est suffisant pour alimenter quelque 80 000 foyers amĂ©ricains.

Il y a au moins 600 centres de donnĂ©es de très grande envergure dans le monde â€“ des centres de donnĂ©es sont Ă©quipĂ©s de 5 000 Ă  10 000 serveurs par pied au carrĂ© (0,09 mètre carrĂ©).

D’un point de vue environnemental, la consommation d’énergie des centres de données et de l’IA est également un cauchemar.

L’IA, les données et l’environnement

Problème, l’énergie utilisée pour entraîner et inférer ses modèles d’IA n’est pas décarbonée. Malgré les mixtes énergétiques, les data centers continuent d’émettre des volumes de CO2 important.

« Nous avons une crise de la consommation d’énergie Â», dĂ©clare Gerry McGovern, auteur du livre World Wide Waste.

« La conception et la fabrication des supercalculateurs, la puissance de calcul et le stockage nĂ©cessaires provoquent cette tension Ă©nergĂ©tique. Â»
Gerry McGovernAuteur du livre « World Wide Waste Â»

« L’IA est très Ă©nergivore, et plus la demande en IA est Ă©levĂ©e, plus nous consommons d’énergie Â», ajoute-t-il.

« Il ne s’agit pas simplement de l’énergie Ă©lectrique pour former une IA Â», prĂ©vient l’auteur. « La conception et la fabrication des supercalculateurs, tout comme la puissance de calcul et le stockage nĂ©cessaires provoquent cette tension Ă©nergĂ©tique. Â»

Gerry McGovern met en avant les estimations selon lesquelles, d’ici 2035, les humains auront produit plus de 2 000 zettaoctets de donnĂ©es. « L’énergie nĂ©cessaire au stockage sera astronomique Â», anticipe-t-il.

Malheureusement, les plus grands consommateurs de donnĂ©es ne font pas grand-chose pour rĂ©soudre le problème de l’empreinte carbone ou de la consommation d’énergie de l’IA, selon Gerry McGovern.

« J’observe une certaine prise de conscience [du problème de l’empreinte carbone de l’IA], mais pas beaucoup d’actions Â», lance-t-il. « Les centres de donnĂ©es, qui sont la “source d’alimentation” de l’IA, se sont concentrĂ©s sur l’efficacitĂ© Ă©lectrique et ont dĂ©finitivement apportĂ© des amĂ©liorations majeures au cours des 10 dernières annĂ©es. Â» Si les centres de donnĂ©es sont devenus plus efficaces sur le plan Ă©lectrique au cours de la dernière dĂ©cennie, les experts estiment que l’électricitĂ© ne reprĂ©sente qu’environ 10 % des Ă©missions de CO2 d’un centre de donnĂ©es, signale McGovern. L’infrastructure d’un data center, notamment le bâtiment et les systèmes de refroidissement, produit Ă©galement beaucoup de gaz carbonique.

En outre, les centres de donnĂ©es utilisent Ă©galement beaucoup d’eau pour le refroidissement par Ă©vaporation. Cette mĂ©thode de refroidissement rĂ©duit la consommation d’électricitĂ©, mais peut utiliser des millions de litres d’eau par jour et par data center. De plus, l’eau utilisĂ©e peut ĂŞtre polluĂ©e au cours du processus, prĂ©vient M. McGovern.

« Il y a toujours cette hypothèse gĂ©nĂ©rale selon laquelle le numĂ©rique est intrinsèquement Ă©cologique, mais c’est loin d’être le cas Â», affirme-t-il.

L’impact environnemental des entreprises

Si la sociĂ©tĂ© lambda ne peut pas changer la façon dont les gĂ©ants de la technologie stockent leurs donnĂ©es, les entreprises soucieuses de leur empreinte Ă©cologique peuvent se concentrer sur la crĂ©ation de donnĂ©es de haute qualitĂ©, plutĂ´t que de grandes quantitĂ©s. Elles peuvent supprimer les donnĂ©es qu’elles n’utilisent plus, par exemple ; les organisations ont tendance Ă  ne pas traiter 90 % des donnĂ©es 90 jours après leur stockage, selon McGovern.

Les entreprises peuvent également adapter la manière dont elles exploitent l’IA ou certains types de machine learning.

Elles peuvent réfléchir au cas d’usage spécifique qu’elles veulent obtenir. À noter que les différents types d’IA ont des coûts de consommation d’énergie supplémentaires.

Les entreprises peuvent se laisser emporter par l’idĂ©e qu’elles ont besoin d’un système d’apprentissage profond avancĂ© qui peut tout faire, selon Alan Pelz-Sharpe. Cependant, si elles souhaitent s’attaquer Ă  un cas d’utilisation ciblĂ©, comme l’automatisation d’un processus de facturation, elles n’ont pas besoin d’un système avancĂ©. Ces systèmes sont coĂ»teux et exploitent beaucoup de donnĂ©es, ce qui signifie qu’ils ont une empreinte carbone Ă©levĂ©e.

Un système spécialisé aura été formé sur une quantité de données beaucoup plus faible tout en étant susceptible de remplir un cas d’utilisation spécifique tout aussi bien qu’un système plus général.

« Parce qu’elle est hautement spĂ©cialisĂ©e, cette IA a Ă©tĂ© entraĂ®nĂ©e sur les donnĂ©es les plus prĂ©cises possibles Â» tout en conservant un petit ensemble de donnĂ©es, affirme Alan Pelz-Sharpe. Un modèle de deep learning, quant Ă  lui, doit brasser des quantitĂ©s massives de donnĂ©es pour parvenir Ă  quelque chose.

Pour approfondir sur Intelligence Artificielle et Data Science