Blue Planet Studio - stock.adobe

Enedis : quatre piliers pour industrialiser l’IA dans un groupe décentralisé

Avec son programme Ambition IA, Enedis vise un déploiement industriel de l’IA dans son organisation fortement décentralisée. Chaque projet doit passer par un atelier de transformation et être évalué sur plusieurs dimensions.

L’industrialisation de l’intelligence artificielle à l’échelle d’un grand groupe est complexe. Une enquête récente de Riverbed évalue le taux d’échec à… 88 %.

Pour éviter cette ornière, Enedis a lancé un grand programme, baptisé Ambition IA. Le distributeur d’énergie a également dû composer avec un facteur de complexité non négligeable : sa forte décentralisation avec 25 directions régionales.

210 initiatives IA

Pour sécuriser ses déploiements, la démarche d’Enedis repose sur quatre piliers. Cette structure aligne systématiquement la technologie avec les impératifs humains, éthiques et opérationnels de l’entreprise.

Le premier pilier repose sur un « usage raisonné de l’IA ». Plutôt que de se disperser, Enedis a concentré ses efforts là où la valeur ajoutée est la plus forte.

Pour cette priorisation, une approche hybride a été adoptée. Elle combine une vision stratégique (top-down) avec une collecte des besoins directement sur le terrain (bottom-up). Résultat : 210 initiatives ont été recueillies au sein des métiers. Après consolidation, ces idées ont été regroupées par axes stratégiques et contribuent de manière tangible aux objectifs du groupe.

Le deuxième pilier est celui d’une IA responsable, pensée en cohérence avec la politique RSE et les engagements d’Enedis. Pour Aude Vinzerich, cheffe du programme Ambition IA, il s’agit de garantir que chaque solution déployée respecte des critères de performance, mais aussi des principes éthiques et sociaux forts.

Pour rendre réelle une démarche d’IA responsable, celle-ci ne doit pas se résumer à un vernis éthique. Elle doit jouer un rôle de moteur opérationnel. À cette fin, la prise en compte des différents paramètres est évaluée de manière collégiale.

Guichet unique pour collecter et évaluer

Pour assurer la maîtrise des risques et la conformité (RGPD, sécurité des données), Enedis s’est doté d’un « guichet unique » (troisième pilier). Ce mécanisme de gouvernance centralise la collecte de toutes les nouvelles idées de projets IA.

Avant tout déploiement, chaque initiative est évaluée par un collectif d’experts. Il s’assure de sa cohérence avec le cadre réglementaire et les politiques internes. Selon Aude Vinzerich, ce collectif permet de ne pas brider l’innovation tout en assurant un déploiement sécurisé.

Le quatrième pilier concerne les fondations data et technologiques. Enedis revendique une approche pragmatique. Plutôt que de lancer un chantier titanesque, l’entreprise utilise chaque cas d’usage comme un levier pour améliorer de manière itérative la qualité et l’accessibilité des données.

L’IA responsable en pratique : au-delà des déclarations d’intention

« Nous avons réussi à diviser par 13 l’impact environnemental sur le réentraînement d’un modèle majeur. »
Aude VinzerichCheffe du programme Ambition IA, Enedis

Chez Enedis, une série d’actions concrètes a été déployée pour traduire l’IA responsable en pratiques tangibles. Celles-ci couvrent les aspects environnementaux, la formation à grande échelle et le dialogue social.

L’approche environnementale se décline en deux volets. Le premier consiste à sensibiliser les équipes projet aux bonnes pratiques de code pour minimiser l’empreinte des modèles. « Nous avons réussi à diviser par 13 l’impact environnemental sur le réentraînement d’un modèle majeur », se réjouit Aude Vinzerich.

Le second volet porte sur la sensibilisation des utilisateurs finaux à un usage raisonné des outils. Comment ? En les incitant à arbitrer entre une recherche classique et le recours à une IA générative, plus énergivore, lorsque celle-ci n’est pas indispensable.

Pour homogénéiser le niveau de maturité face à l’IA, un vaste plan d’acculturation a aussi été mis en place avec des sessions de sensibilisation et de formation en présentiel à travers un réseau de relais en région. Elles touchent les collaborateurs au plus près du terrain.

Fin 2025, plus 5 000 des 40 000 collaborateurs avaient participé à ces formations. En complément, un e-learning de 30 minutes, réalisé en interne, offre à chacun les bases pour comprendre les outils, identifier les risques et conserver un esprit critique.

Enedis a aussi créé un « comité dialogue social » semestriel avec les partenaires sociaux. Il ne s’agit pas d’une instance de validation formelle, mais d’un espace d’écoute et de discussion. Il permet un partage des informations, de comprendre les préoccupations et d’avancer de manière concertée.

Appropriation via des ateliers « Transfo »

Au cœur de la méthode Enedis, des ateliers d’analyse de la transformation sont directement inspirés des travaux du LaborIA (INRIA et ministère du Travail). Cette démarche est appliquée systématiquement au démarrage de chaque projet d’IA.

L’objectif est de placer le ressenti, les craintes et les aspirations des collaborateurs au centre du processus de conception, bien avant que la première ligne de code ne soit écrite. C’est là que doit résider l’antidote à la conception d’outils en vase clos, déconnectés de la réalité du travail, argue Aude Vinzerich.

« Il n’y a pas un seul atelier pour lequel on aurait pu écrire la synthèse en amont. »
Aude VinzerichCheffe du programme Ambition IA, Enedis

Chaque atelier se déroule sur 1 h 30 et réunit une dizaine de participants. Ils représentent l’ensemble des métiers impactés. La session est structurée en trois phases.

D’abord, les participants expriment ce qu’ils préfèrent dans leur métier actuel, afin d’identifier les sources de satisfaction à préserver. Ensuite, le groupe définit collectivement les limites que l’IA ne devrait pas franchir dans leur quotidien professionnel. Enfin, les participants répondent à une quinzaine de questions sur des thèmes comme la responsabilité, l’autonomie ou la surveillance.

Les résultats seraient systématiquement riches et comme le souligne Aude Vinzerich, leur issue est imprévisible : « Il n’y a pas un seul atelier pour lequel on aurait pu écrire la synthèse en amont. »

En écoutant les collaborateurs, Enedis a pu faire pivoter des projets et éviter des échecs d’adoption.

L’assistant virtuel et le sens du travail

Un projet visait à déployer un assistant virtuel pour répondre à des questions de logistique, une tâche jugée a priori à faible valeur. L’atelier a révélé une tout autre réalité.

« Ce qu’ils préféraient, c’était répondre à leurs collègues », rapporte Aude Vinzerich. Rendre service et enquêter pour trouver la bonne information était au cœur de leur motivation. Le projet a donc été réorienté pour préserver cette dimension humaine essentielle.

Un retour d’expérience sur un autre assistant, conçu pour supprimer les tâches répétitives, a montré un effet pervers inattendu. Libérés des cas simples, les salariés se sont retrouvés confrontés à une charge mentale accrue, composée uniquement de dossiers problématiques.

Cette anecdote illustre une leçon fondamentale, souvent ignorée : un certain équilibre entre tâches simples et complexes est nécessaire au bien-être. Les premières offrent des « respirations » cognitives.

Sur un projet d’aide à la décision, les collaborateurs ont également soulevé un dilemme éthique. Si l’IA propose une action, mais que l’expert choisit d’en suivre une autre menant à un incident, qui est responsable ? La question, résumée par les salariés, reste ouverte : « Qui prend la responsabilité parce que l’IA avait donné la bonne réponse ? » (Et inversement).

Même un outil a priori anodin peut générer des craintes. Lors d’un atelier, les salariés ont exprimé leur peur d’être jugés par leur hiérarchie sur leur fréquence d’utilisation : « Si mon manager regarde dans le chatbot combien de questions j’ai posées à l’assistant, il va peut-être me dire que je ne sais pas faire mon travail. »

Cette crainte, qui n’avait pas été anticipée, aurait pu être un frein majeur à l’adoption. La solution fut simple : l’anonymisation des conversations.

Structurer l’avenir de l’IA

Pour le futur, Enedis a mis en place une gouvernance pour pérenniser son approche et répondre aux prochains défis, notamment la transmission des savoirs et la définition de lignes rouges éthiques.

La réalisation de l’atelier « Transfo » est devenue une condition sine qua non pour qu’un projet soit validé en comité d’innovation.

En parallèle, l’énergéticien travaille à la mise en place d’un comité éthique. Son rôle sera de définir formellement les cas d’usage qu’Enedis se refuse à explorer, comme ceux liés à la surveillance des salariés.

Un des points majeurs qui n’est pas encore résolu est celui de la formation des juniors. Comment transmettre une expertise métier si l’IA automatise les tâches qui permettaient autrefois d’apprendre ?

Enedis réfléchit à la possibilité de réserver certains outils aux experts qui ont déjà un sens critique suffisant. Selon l’entreprise, cet enjeu est en tout cas crucial pour la conservation de ses compétences à long terme.

Pour approfondir sur IA appliquée, GenAI, IA infusée