ipopba - stock.adobe.com

Constellium diffuse la culture Data dans ses usines

Le géant de l’aluminium a fait le choix des technologies Microsoft afin de numériser les processus dans ses usines. La démarche adoptée par l’industriel est de mettre l’IT, le cloud et le low-code au service des opérateurs, une approche qui s’appuie sur les technologies Power Apps et les services Azure.

C’est en se concentrant sur son cœur de métier, la fabrication de produits laminés et extrudés en aluminium que Constellium a décidé de basculer dans l’ère numérique. Cette transformation a été initiée par le COMEX de l’entreprise. Le comité exécutif a mis en place une équipe « Digital » afin de tester les technologies « Industrie 4.0 » à travers des PoC (Proof of Concept).

Pendant plus d’un an, de multiples solutions ont ainsi été expérimentées. Cela a permis de concentrer les efforts sur l’optimisation des processus de production d’aluminium et la maintenance industrielle. La position de l’industriel a été d’adopter une approche Bottom-Up. Constellium a sollicité les opérateurs pour identifier les cas d’usage possible des données dans les usines.

« Nous disposions de deux leviers afin d’identifier les besoins. D’une part l’incitation du COMEX et de l’autre les opérateurs eux-mêmes, les gens de terrain, qui sont très demandeurs d’outils digitaux », explique Sébastien Lesage, chef de projet Digital chez Constellium. « Ceux-ci avaient bien compris que les usines génèrent beaucoup de données et que les exploiter pourrait présenter des gains énormes pour eux. Notre mission était de les aider à aller plus loin dans ce sens, y compris sur des processus déjà bien établis. »

De multiples cas d’usage possibles dans une usine

De nombreux projets ont été lancés dans les usines, notamment dans le domaine EHS (Hygiène Sécurité et Environnement). L’industriel a mis sur pied un système de caméras couplées à un algorithme de vision par ordinateur pour détecter la présence de piétons et d’un chariot élévateur à proximité des laminoirs. L’objectif : éviter les accidents. Autre projet innovant, le suivi des bennes contenant les chutes de métal afin de faciliter le recyclage de l’aluminium dans les fours.

L’autre grand cas d’usage dans les usines Constellium porte sur le traitement des données de fonctionnement des machines à des fins de maintenance. « Nous voulons aider les opérateurs à exploiter les données que leur machine génère, en particulier pour la maintenance », indique Sébastien Lesage. « Nous sommes en train de construire un système d’alerte avec lequel un opérateur peut sélectionner une donnée quelconque émise par sa machine, fixer des limites et… l’oublier. Celui-ci reçoit automatiquement une alerte lorsqu’un signal dépasse les limites qu’il a fixées. »

Outre la génération d’alertes en quasi-temps réel, l’objectif du projet est aussi de stocker ces données et de disposer d’un historique. Ce dispositif doit permettre de réaliser des recherches de cause en cas de défaut qualité ou de dérive constatée sur une machine.

Pour mettre en place ce projet, Constellium a fait appel à Exakis Nelite, un intégrateur spécialisé dans les technologies Microsoft. « Nous avons commencé à travailler avec Constellium il y a deux ans environ sur de nombreux chantiers » raconte Margaux Coudun, Team Leader Data et Infrastructure chez Exakis Nelite. « Il fallait comprendre le métier, passer beaucoup de temps avec les opérateurs sur site afin de bien détailler avec eux les processus en place. À l’issue de cette première phase, nous avons mis en place des modèles de données industriels. »

Constellium a constitué une communauté de « Key Users » de la Data

Ce travail a commencé dans l’usine Constellium de Montreuil Juigné, 250 employés. Une « petite » usine à l’échelle du groupe. « Nous avons eu beaucoup d’échanges avec eux pour concevoir le modèle de données », ajoute Margaux Coudun. « Surtout, il fallait qu’ils le comprennent bien afin qu’ils puissent ensuite créer des rapports par leurs propres moyens ».

Toutes les données sont stockées sur le cloud Microsoft Azure. La brique d’intégration Azure Data Factory joue le rôle d’ETL pour collecter toutes les données générées par les machines.

« À l’issue de cette phase de mise en place, nous avons mené de nouveaux ateliers avec les opérateurs », raconte la responsable chez Exakis Nelite. « Il s’agissait de remplacer les fiches qui leur sont remises tous les matins lors du meeting matinal avec leur programme de production de la journée ».

« Nous avons créé avec eux des tableaux de bord avec l’outil de reporting Power BI, afin qu’ils puissent ensuite faire évoluer eux-mêmes ces rapports et être autonomes pour créer leurs propres KPI et analyses, sans l’accompagnement de la cellule digitale. », poursuit-elle.

Les opérateurs sont à même de créer leurs propres dashboards à partir des modèles qui leur sont proposés. « Cette démarche a bien fonctionné et pour la pérenniser, nous avons créé une communauté de “Key Users”, des opérateurs et des ingénieurs très motivés par le digital. », affirme Sébastien Lesage.

Chaque mois, un comité se réunit afin de passer en revue les données, les rapports, vérifier le niveau de qualité des données. Pour Sébastien Lesage, la constitution d’une communauté d’utilisateurs autour de la thématique de la donnée est essentielle dans le succès de cette approche « Industrie 4.0 ».

« C’est fondamental. Le digital est fait pour nos opérateurs, les gens qui sont dans les usines et qui y travaillent au contact du métal. Ce n’est pas un outil pour des ingénieurs dans leur tour d’ivoire », insiste-t-il.

« Le digital est fait pour nos opérateurs, les gens qui sont dans les usines et qui y travaillent au contact du métal. Ce n’est pas un outil pour des ingénieurs dans leur tour d’ivoire. »
Sébastien LesageChef de projet Digital, Constellium

Ces comités Data interviennent à deux niveaux. Dans chaque usine, le travail porte sur la qualité de la donnée. Il est administré par des responsables veillant à leur qualité et à leur mise à disposition. À l’échelle inter-usine, les comités permettent de définir les bonnes pratiques et les règles de gestion des données communes à tous les sites. Cette instance se réunit toutes les six semaines.

Si cette problématique de traitement des données vient s’ajouter aux tâches habituelles des responsables de machines ou de sites, Sébastien Lesage estime que la démarche a été bien acceptée.

De fait, les données ne sont pas destinées à des tiers, mais ont pour objectif d’aider les opérateurs et responsables d’usine. Tous les matins, le comportement de leurs machines et de leur site de production est analysé. Et Sébastien Lesage précise que « la donnée est générée par l’usine et reste la propriété de chaque usine ». Toutefois, « le but ultime est d’obtenir un dépôt de données unique, accessible à tous ceux qui en ont besoin », rappelle-t-il. « Le cloud représente un lieu commun où placer toutes les données. L’objectif est que celles-ci soient standardisées et que n’importe qui puisse s’y retrouver avec un modèle de données commun, que ce soit en Amérique du Nord, en Espagne ou en Allemagne. »

Une infrastructure amenée à être instanciée pour chaque usine

Le socle technique mis en place pour l’usine de Montreuil va être reproduit dans les autres usines du groupe. « Le Data Lake déployé pour le système d’alerte a été conçu de manière suffisamment générique pour pouvoir être utilisé dans toutes les usines » explique Margaux Coudun, « Les données pourront être de nature différente, mais le système est réutilisable ».

« Le Data Lake déployé pour le système d’alerte a été conçu de manière suffisamment générique pour pouvoir être utilisé dans toutes les usines. »
Margaux CoudunTeam Leader Data et Infrastructure, Exakis Nelite

En ce qui concerne l’intégration de données, le projet a pu bénéficier des nombreux connecteurs disponibles depuis Azure Data Factory. La plateforme est alimentée par les fichiers binaires au format IBA générés par les machines et centralisés au niveau d’un serveur dédié dans l’usine. Des transformations sont réalisées à l’aide de scripts Python, afin de pouvoir charger ces données dans le Data Lake Azure.

« Les données sont générées sur les automates programmables qui pilotent les machines, et récupérées via la solution de Process Data Acquisition System éditée par IBA System », précise Sébastien Lesage. « Les données sont collectées et stockées localement dans des fichiers. Nous n’avons eu qu’à pousser ces fichiers sur un serveur qui est dédié à cela dans l’usine. Puis, ils sont automatiquement rapatriés vers Azure. »

Pour l’application d’alerte de maintenance, les consultants d’Exakis Nelite ont mis en œuvre la plateforme Power Platform de Microsoft. Ils ont principalement utilisé la brique low-code/no-code Power Apps.

Depuis l’interface de l’application, l’opérateur choisit le signal pour lequel il souhaite configurer une alerte. L’instance Power Apps se connecte à Data Lake dans Azure. La règle métier est traduite en code Python qui, une fois exécuté via le service Serverless Azure Fonctions, va générer une nouvelle ligne dans la base des alertes et ainsi déclencher un workflow Azure Logic Apps. L’opérateur reçoit alors un email envoyé à son poste. Margaux Coudun souligne que ce développement a été mené en une vingtaine de jours seulement.

Cette application n’a rien d’anecdotique. Une machine en production dans les usines Constellium peut compter jusqu’à 40 000 capteurs. Suivre manuellement et en quasi-temps réel les données en provenance de ces équipements est humainement impossible.

« Les responsables de la maintenance avaient pour exigence que 90 % des données soient sous contrôle, sans que les opérateurs doivent les consulter », précise Sébastien Lesage. « Avec le système d’alerte, ils peuvent être sûrs que lorsqu’une donnée commence à dériver, ils sont notifiés ».

L’envoi de SMS est à l’étude. De fait, les équipes de maintenance sont constamment en intervention. En ce sens, l’industriel est en train de doter ses techniciens de tablettes et les équipements mobiles seront de plus en plus présents dans leur métier.

Constellium considère le cloud Azure comme un pivot pour ses futurs services « Industrie 4.0 ».

« En centralisant nos données dans Azure, nous pouvons monter tous nos services au-dessus de ce dépôt universel. Lorsqu’un service démontre son efficacité, comme c’est le cas du système d’alerte, l’usine qui voudra en bénéficier pourra le déployer assez rapidement », anticipe Sébastien Lesage. « La donnée sera au même endroit, aura la même structure. Il suffira de dupliquer le système pour en faire tirer profit dans autant d’usines que nécessaire. »

L’industriel prépare un autre chantier. Il compte faire évoluer cette architecture vers le Edge Computing afin de renforcer les capacités de traitement sur site et exécuter des algorithmes d’IA en pied de machine. Le déploiement des usages de la donnée dans les laminoirs de Constellium ne fait que commencer.

Projet présenté lors du Salon SIDO 2021.

Pour approfondir sur Big Data et Data lake

Close