Sergey Bogomyako - stock.adobe.c

Process Mining : Celonis étend ses connexions vers les « lakehouses »

Puisque ses clients les plus importants cherchent à analyser les données depuis les lakehouses plutôt que de multiplier les projets d’intégration, Celonis adapte sa formule. Un phénomène qui s’explique également par le modèle de données introduit il y a deux ans. Celui-ci tend « naturellement » à l’ingestion de plus gros volumes de données.

Lors de son événement virtuel Next 2025, Celonis a présenté les évolutions de sa plateforme de process mining dans la droite lignée de ce qu’il avait annoncé au mois d’octobre 2024.

Auprès des clients et des partenaires, Dan Brown, récemment nommé chief product officer chez Celonis, a commencé sa présentation en évoquant l’intégration de la plateforme avec Microsoft Fabric.

Lors de sa conférence annuelle dernière, l’éditeur avait présenté CeloCore, une appellation marketing pour expliquer à ses clients qu’il a étendu les capacités de sa plateforme à traiter davantage de logs et de données de processus. Il avait aussi retravaillé ses extracteurs JDBC pour prendre en charge Snowflake, Google BigQuery et Databricks. À cela s’ajoute la notion d’intégration « zero copy », cher à ces fournisseurs.

Le lakehouse perçu par certains comme l’unique source de vérité des processus

L’annonce consacrée au « lakehouse » Microsoft Fabric (qui est actuellement avant tout un tenant pour Power BI) est une suite logique. D’autant que, selon Dan Brown, 75 % des données d’entreprise sont aujourd’hui stockées dans ces entrepôts de données modernes.

Plus précisément, selon les propos de Manuel Haug, field CTO de Celonis auprès du MagIT, la plupart des clients de l’éditeur commencent par utiliser les connecteurs natifs, génériques (JDBC) et personnalisés avant de transformer les données dans Celonis ou à l’aide d’un outil ETL tiers.

« La raison principale de ce choix est le délai jusqu’aux premiers résultats. La plupart du temps, au début, une équipe s’attelle à collecter et harmoniser les données des systèmes sources pour concevoir une application », explique-t-il. « Ensuite, lorsqu’un client étend son usage du process mining, nous nous intégrons à des systèmes d’agrégation comme Snowflake ».

« Beaucoup de clients ont une approche mixte, car, en réalité, toutes les données ne sont pas présentes dans les lakehouses. »
Manuel HaugField CTO, Celonis

L’intégration aux lakehouses, dont Microsoft Fabric, concerne donc les clients généralement plus avancés dans leur déploiement de Celonis. C’est le cas de Saint-Gobain, dont le centre d’excellence consacré à l’exploration des processus impose que les données soient d’abord présentes dans le lac Snowflake de l’entreprise avant de matérialiser un projet. Ce choix s’explique par la volonté de ne pas multiplier les projets d’intégration alors que les applications « cœur » du groupe (ERPs, CRM, etc.) déversent déjà des données dans un espace unifié.

Malgré tout, les clients qui s’appuient exclusivement sur des entrepôts de données comme source pour la plateforme Celonis sont rares. « Beaucoup de clients ont une approche mixte, car, en réalité, toutes les données ne sont pas présentes dans les lakehouses », rappelle Manuel Haug. C’est d’autant plus vrai pour les clients communs de Microsoft Azure, car l’adoption de Microsoft Fabric pour sa fonction de lakehouse (OneLake) n’est pas encore massive, observe le field CTO.

Une modélisation plus fine des événements et des objets issus des applications métiers

Au-delà de l’intégration aux sources de données, Celonis dit étendre son Process Intelligence Graph, un graphe de connaissances des processus propulsés par le modèle de données « Object-Centric Process Mining » (OCPM).

« Nous avons ajouté des objets et des événements pour Salesforce, Microsoft Dynamics 365, Zendesk, Oracle Fusion, S/4HANA, Workday, ServiceNow et des systèmes de supply chain comme Blue Yonder et Project44 », annonce Paul Dickinson, directeur gestion produits chez Celonis, lors du séminaire en ligne.

Pour les entreprises qui utilisent le modèle de données historique de Celonis, « case-centric », dit simplifier la migration vers OCPM et PI Graph.

« Nous facilitons également la gestion du PI Graph grâce à de nouvelles fonctionnalités de contrôle de version. Cela vous permet de suivre et de gérer les changements au fil du temps, d’annuler facilement les changements que vous mettez en production et d’améliorer la collaboration avec toutes vos équipes », promet Paul Dickinson.

Selon Manuel Haug, le modèle OCPM, en cours d’adoption par les clients de Celonis, vient répondre à un problème historique de la modélisation des processus. « La plus grande différence est que notre modèle de données utilisé auparavant était conçu pour examiner les processus individuels », indique-t-il.

« Nous avons créé un système plus granulaire et dynamique où vous pouvez décider ce que vous voulez examiner après l’intégration des données. »
Manuel HaugField CTO, Celonis

Avec l’ancien modèle, il est pratiquement nécessaire de savoir ce que l’on cherche à analyser au moment de l’intégration de données. Et comme les entreprises n’ont pas forcément une vision de bout en bout d’un processus ou d’un lot de processus connexes, elles se retrouvent à copier de multiples modèles de données qui varient uniquement en fonction des événements. OCPM doit assurer l’évolution du modèle de processus en prenant en compte les événements individuels, et non l’ensemble des informations dans un log, et en maintenant la relation entre des événements et plusieurs objets.

« Nous avons créé un système plus granulaire et dynamique où vous pouvez décider ce que vous voulez examiner après l’intégration des données », résume le field CTO.

Une méthodologie qui explique la nécessité du projet Celocore, dû à la croissance des volumes de données. « Si vous conservez le même périmètre, cela ne nécessite pas plus de données, mais la croissance est plus aisée », nuance Manuel Haug. « Nous constatons que les clients ajoutent naturellement plus de données, car c’est plus facile de développer de nouveaux cas d’usage ».  

Cela permettrait d’affiner la modélisation des objets et des événements.

Faciliter l’analyse visuelle des données

En outre, Celonis Process Management (CPM), issu de l’acquisition de Symbio, évolue. Cet outil de conception et de visualisation de modèles BPMN (Business Process Model and Notation), couplé à des fonctions de process mining, dispose désormais d’une API pour importer des modèles BPMN dans le module de gestion d’adhérence aux processus afin de constater les déviances avec les règles métiers d’une entreprise.

L’étape suivante consiste à créer les évaluations, à consolider les modèles de processus et à concevoir des indicateurs clés de performance.

En ce sens, l’éditeur lance un nouvel éditeur visuel pour PQL, le langage spécifique au domaine de Celonis. Celui-ci est synchronisé avec les modèles de connaissances afin de conserver un lien avec les sources de vérité.

Quant aux vues qui en résultent, ces modules permettant d’afficher visuellement les indicateurs clés de performance, les modifications opérées sont répliquées automatiquement partout où ces diagrammes sont embarqués. C’est justement un volet important pour Manuel Haug qui constate que les clients intègrent les KPI modélisés dans Celonis dans les plateformes BI du marché et leurs applications spécifiques. « L’intégration aux systèmes sources est importante, mais la manière dont nous affichons les informations aux métiers l’est tout autant », souligne-t-il.

Pour approfondir sur Middleware et intégration de données