Cet article fait partie de notre guide: Tout comprendre sur l’évolution du process mining

L’évolution du process mining selon son créateur

Dans un entretien accordé au MagIT, Wil van der Aalst, Chief Data Scientist de Celonis et « parrain du process mining » élabore sa vision de l’exploration des processus et les évolutions en cours dans ce domaine.

En 2021, une technologie a largement fait parler d’elle : le process mining. Plusieurs rachats (Signavio par SAP, MyInvenio par IBM, ou encore Lana Labs par Appian) et des lancements ou des améliorations d’offres ont prouvé l’intérêt des éditeurs. Sans oublier que ServiceNow s’est rapproché de l’un des leaders du secteur, Celonis.

Pourtant la pratique du process mining – ou de l’exploration des processus en français – n’est pas nouvelle. Cet ensemble de techniques lié à la data science et à la gestion des processus (BPM) est né à la toute fin des années 1990, au sein de l’université d’Eindhoven.

Elle est directement issue des travaux de Wil van der Aalst, professeur néerlandais en science computationnelle à l’université RTWTH d’Aachen, en Allemagne et consultant en process management, recruté au mois de septembre par Celonis en tant que Chief Data Scientist.

Wil van der Aalst est considéré par son employeur comme le « parrain du process mining ». Ses recherches ont non seulement influencé la création de standards tels que le BPMN, mais également le développement d’un grand nombre de logiciels BPM et de process mining, dont Celonis, ARIS ou encore WebSphere. Depuis, des dizaines de startups, dont la Bretonne Locpickr, se sont lancées dans l’aventure.

« Au début des années 1990, je me suis intéressé aux gestionnaires de flux de travail. Nous avons construit notre propre logiciel de gestion de workflows. À cette époque, j’étais également consultant pour de grandes entreprises du secteur. Je les aidais à sélectionner et évaluer leur système de workflow management. Je pensais que cette technologie allait changer le monde ! », déclare Wil van der Aalst auprès du MagIT.

Mais à la fin des années 1990, après avoir participé à de nombreux projets visant à déployer ces outils, le chercheur s’est rendu compte que « beaucoup d’organisations les achetaient sans jamais les utiliser ». La raison de ce désintérêt, selon lui, tient dans le fait que « les processus dans la vie réelle sont très différents de ceux que l’on veut bien présenter sur un PowerPoint ». « Si vous souhaitez appliquer des procédures établies à partir d’une feuille blanche, vous vous retrouvez vite confronté à des éléments inconnus qui eux existent bel et bien en réalité ! », s’exclame-t-il.

« Je me suis donc dit qu’il fallait faire le chemin inverse : cherchons d’abord à savoir ce que font réellement les gens. Aujourd’hui, cela semble totalement logique, mais à l’époque il y avait peu de données disponibles. La plupart des processus étaient manuels, ils étaient documentés sur papier », rappelle le professeur.

Une lente démocratisation

De la théorie élaborée en 1999, Wil van der Aalst est passé à la pratique dès 2000. « J’ai commencé à développer des algorithmes d’exploration des processus avec la question suivante en tête : si vous observez ce que font les collaborateurs et les organisations, comment peut-on apprendre automatiquement ces modèles de flux de travail ? », explique-t-il.

Selon le Chief Data Scientist de Celonis, les résultats ont été très surprenants. « Nous avons commencé à analyser les processus des entreprises et ce que nous en tirions était très différent de ce que les responsables imaginaient. Réaliser qu’il y avait tant d’exceptions à leurs processus a été un choc pour la plupart des sociétés avec qui nous coopérions. Je me suis dit que je tenais là quelque chose de très utile », témoigne-t-il.

Si Wil van der Aalst est rapidement convaincu de la valeur ajoutée du process mining, et s’il a incité ses étudiants à travailler sur ce sujet et à créer leurs propres sociétés dans ce domaine (ce que certains ont fait), « il a fallu beaucoup de temps pour convaincre beaucoup de gens que c’était véritablement le cas ».

Il estime avoir atteint cet objectif. « Ces dernières années, de plus en plus d’éditeurs ont vu le jour. Selon mes estimations, à l’heure actuelle il y a 40 entreprises spécialisées dans le process mining », se réjouit Wil van der Aalst.

D’ailleurs, la plupart des idées qui ont fait émerger le process mining tel qu’il est sont issues de recherche menée il y a 15 à 20 ans, assure-t-il.

« Nous avons commencé par la découverte des processus (process discovery) : ce sont généralement ces modèles capables de montrer les activités des collaborateurs et des organisations », rappelle le Chief Data Scientist.

« Aujourd’hui, n’importe quel outil de process mining supporte le process discovery, c’est une commodité », avance-t-il. « Mais scientifiquement, c’est un problème intéressant et il est très important de voir qu’il n’est pas résolu : les éditeurs continuent d’améliorer leurs solutions ».

Ensuite, les groupes de recherche ont développé les vérifications de conformité (conformity checking en VO) dans le but de détecter si un processus dévie par rapport à ce que l’on attend, l’éviction des contrôles, les tâches en double ou en triple, mais également le respect du temps de réponse aux clients. « Ces cas d’usage proviennent du monde académique », assure Wil van der Aalst.

« Les éditeurs, eux, ont rapidement considéré qu’il fallait démocratiser le process mining. Par exemple, la solution de Celonis permet de générer des tableaux de bord que les utilisateurs peuvent comprendre aisément et que ce n’est plus quelques analystes dans leur coin qui exploitent le logiciel, mais des dizaines, des centaines et parfois des milliers de personnes qui le consulte au sein d’une organisation », ajoute-t-il.

La data management : grand défi du process mining

Selon le Chief Data Scientist de Celonis, la plupart des outils d’exploration de processus sont matures et aptes à une utilisation à large échelle. « La majorité des logiciels de process mining sont bons : vous pouvez gérer des millions d’événements », lance-t-il.

Mais des obstacles d’importance demeurent. « Je pense que l’un des plus gros défis est l’extraction de données quand ces outils sont déployés pour superviser de nouveaux processus », prévient Wil van der Aalst.

 « C’est à la fois sa force et aussi sa faiblesse : le process mining est très générique ».
Wil van der AalstChief Data Scientist, Celonis

 « C’est à la fois sa force et aussi sa faiblesse : le process mining est très générique. Il peut être employé dans l’observation de beaucoup de processus de l’entreprise : la finance, les RH, la supply chain, etc. ».

« Mais en même temps », complète-t-il, « cela rend les choses complexes parce que pour chaque application vous devez connaître vos données, les extraire et ensuite étendre les méthodes d’exploration. L’organisation doit être suffisamment mature pour savoir quel type de données elle possède, et ces données doivent également être de bonne qualité ».

Le chercheur estime que « la majorité des usages du process mining sont liés aux systèmes ERP et CRM ». « S’il fallait établir un pourcentage, je dirais qu’environ 70 % des applications du process mining proviennent de ces systèmes, mais d’autres cas d’usage gagnent de l’importance ».

Cela s’expliquerait par l’existence de procédures standards (Procure-to Pay, Order to Cash, etc.) souvent communes aux entreprises et aux logiciels du marché. Mais d’après Wil van der Aalst, dans certains secteurs comme dans l’automobile, les processus particuliers de production et de logistique sont plus importants. « Dans d’autres domaines tels, la médecine, il s’agit de surveiller le parcours d’un patient, et non d’un client. Il est souvent plus déterminant pour ces organisations d’être très efficient dans le cœur de métier plutôt que de maîtriser des procédures standards ».

La préoccupation des chercheurs

D’autres éléments – comme l’analyse en temps réel – semblent complexes à mettre en place, mais sont en fait maîtrisés par les éditeurs, dont Celonis.

Le process mining en temps réel est « absolument trivial », selon Wil van der Aalst. « Cela n’affecte pas le fonctionnement des algorithmes de process mining, mais l’architecture ». Il faut donc s’assurer de pouvoir récupérer les données en quasi-temps réel. Son usage moins récurrent tient davantage du fait que la plupart des entreprises l’appliquent sur des systèmes administrant des batchs de données, plutôt que des flux, car les structures de traitements d’événements sont moins répandues. « Je pense que la problématique de la qualité des données est un sujet plus important pour la plupart des entreprises », affirme le Chief Data Scientist.

« Le process mining fonctionne mieux là où les organisations contrôlent la gestion de leurs données. C’est un prérequis », indique-t-il. Pour autant, il ne faut pas que cela crispe les dirigeants. Selon le professeur, il convient d’éviter certains raccourcis liés à la data science.

« Beaucoup de gens pensent que l’exploration de processus est synonyme d’apprentissage automatique et d’IA. Ce point de vue est en fait erroné ».
Wil van der AalstChief Data Scientist, Celonis

 « Beaucoup de gens pensent que l’exploration de processus est synonyme d’apprentissage automatique et d’IA. Ce point de vue est en fait erroné. Le process mining peut générer des problèmes de machine learning, mais cette pratique réclame énormément de données et l’identification d’un enjeu spécifique comme reconnaître des chiens et des chats sur des photos ».

Le process mining, selon Wil van der Aalst consiste principalement à observer les situations passées et présentes : il s’avère pertinent tant que la qualité des données est au rendez-vous. Il est également possible de prédire l’évolution des processus métier à l’aide du machine learning, mais « cela ne fonctionne que si vos processus sont stables et que vous avez beaucoup de données », prévient-il.

À ce titre, le monde de la recherche et les éditeurs veulent étendre leur vision des processus. « Souvent, les outils de process mining s’appuient sur des journaux d’événements présentant un identifiant, le nom de l’activité et un tampon chronologique. Nous réfléchissons à rendre cette structure plus souple afin de prendre en compte les interactions entre les différentes procédures au lieu de les imaginer comme des monolithes », déclare Wil van der Aalst. « Par exemple, si un client passe une commande, les événements doivent être liés à un client, à une commande qui peut contenir plusieurs articles et qui est effectuée depuis une région spécifique. Ce type d’événement enrichi permet d’analyser le parcours client sans retourner dans l’ERP pour charger à chaque fois les données correspondantes ».

C’est l’une des raisons pour lesquelles Wil van der Aalst a rejoint Celonis. « J’ai longtemps travaillé avec Celonis sans que ce soit exclusif. J’ai changé de stratégie, en prenant le poste de Chief Data Scientist. Il est devenu essentiel d’accomplir des expérimentations à large échelle. Un groupe de recherche, peu importe sa taille, ne peut rivaliser avec les éditeurs et les fournisseurs. Pour avancer, vous avez besoin de beaucoup d’ingénierie, beaucoup de clients et de données réelles ».

L’ère de l’automatisation chirurgicale

Surtout, l’heure est à l’automatisation des processus. Le partenariat entre Celonis et ServiceNow a été mené en ce but bien précis.

Cependant, cette volonté d’automatiser les flux de travail n’est pas nouvelle. Il suffit d’observer l’utilisation des plateformes BPM et l’émergence de la RPA pour s’en rendre compte. Selon le professeur, sans le process mining, cet exercice s’avère complexe.

« L’approche traditionnelle de l’automatisation a deux problèmes. Premièrement, vous essayez d’automatiser des processus qui n’existent pas. Deuxièmement, elle ne cible pas les endroits où ça fait mal » estime Wil van der Aalst. « C’est très naïf de croire – et j’ai moi-même fait cette erreur au milieu des années 1990 – qu’un seul modèle de processus peut ordonner un ERP contenant 800 000 tables distinctes. Désormais, vous pouvez concentrer vos efforts d’automatisation là où cela a le plus de sens. Il ne s’agit pas de remplacer ce qui est déjà en place, mais d’avoir une plateforme capable d’automatiser les éléments qui font réellement la différence en matière de coût ».

Cette automatisation, vantée par Celonis et rendue possible par les autres outils du marché comme ARIS, ne peut avoir lieu qu’après avoir réordonné les processus. « Si vous tentez d’automatiser un processus qui sur le papier est simple, mais qui en réalité ressemble à un plat de spaghetti, votre projet est destiné à l’échec », lance Wil van der Aalst.

Mais ces « processus spaghetti » ne sont pas forcément synonymes de surcouches inutiles ou de problèmes organisationnels. « Les processus spaghetti montrent également qu’il y a des gens dans les entreprises qui s’adaptent de manière flexible à des situations exceptionnelles », observe le professeur. « Tout le défi est d’identifier le processus au cœur de ce plat et les branches qui reflètent la flexibilité de l’organisation par rapport à ses clients ».

« Il faut considérer que dans les années 1990, nous étions juste des bouchers : des gens qui n’avaient aucune idée des bonnes méthodes de remédiation ».
Wil van der AalstChief Data Scientist, Celonis

Wil van der Aalst croit qu’il n’y a pas à avoir peur de ces worflows complexes. « Le process mining peut être déroutant au début, mais vous n’avez pas besoin de démêler ces processus spaghetti pour tout comprendre, il faut vous concentrer sur les choses qui coûtent cher ou qui sont chronophages et que vous estimez inacceptables en matière de conformité ».

En cela, Celonis jouirait d’un avantage certain, selon le Chief Data Scientist. « Vous pouvez comparer le process mining à la radiographie », illustre-t-il. « Avec Celonis, nous avons fait des radios de certaines maladies un millier de fois auprès de milliers de clients. Nous savons à quoi ça ressemble. Il faut maintenant opérer : l’automatisation des flux de travail correspond à cette pratique de la chirurgie ».

In fine, le process mining n’est qu’un outil de diagnostic. Il convient de le coupler avec l’automatisation pour en tirer tous les bénéfices, assure le responsable. « Il faut considérer que dans les années 1990, nous étions juste des bouchers : des gens qui n’avaient aucune idée des bonnes méthodes de remédiation. Maintenant, nous avons la radiographie pour détecter un problème, nous pouvons effectuer une automatisation ciblée, une opération chirurgicale pour atténuer ce problème. […] Si vous ne faites que de l’exploration de processus, vous n’opérez jamais le patient. Vous devez faire les deux », tranche-t-il.

Pour approfondir sur Intelligence Artificielle et Data Science

Close