Cet article fait partie de notre guide: Tout comprendre sur l’évolution du process mining

Data Fabric et process mining, les deux priorités d’Appian

Lors de son événement Appian Europe, l’éditeur a présenté les ajouts de la version 22.4 de sa plateforme BPM/low-code. L’éditeur optimise ses outils de process mining et de RPA. Derrière le rideau, son architecture Data Fabric est au cœur de sa stratégie.

Appian Records, l’outil de modélisation de données et de gestion des enregistrements devient l’une des briques d’une architecture Data Fabric.

« L’architecture Data Fabric est une amélioration fondamentale pour l’ensemble de la plateforme », vante Malcom Ross, Vice-président stratégie produit et CTO adjoint d’Appian auprès du MagIT. « Il y a peu, la configuration de bases de données et l’intégration de données en provenance de multiples sources provoquaient souvent des retards importants dans le cycle de développement logiciel de nos clients ».

Par exemple, pour afficher un tableau de bord qui agrège différents types de données, cela réclamait l’intervention de professionnels, des DBA ou des développeurs pour gérer les intégrations et leurs optimisations.

Les briques d’un Data Fabric façon Appian

Avec la version 22.3, Appian avait officialisé la disponibilité de son modeleur de données no-code, associé à ce Data Fabric. L’outil permet de créer et de configurer automatiquement des tables, des structures de données sans l’intervention d’un DBA. Avec la mouture 22.4, Appian entend simplifier l’ajout et le stockage des données statiques, plus particulièrement des données de référence (comme des statuts de commande ou des valeurs représentant la priorité d’une tâche) au sein des enregistrements sollicités par les applications. Ces opérations ne réclament pas d’intervention humaine.

L’autre pan important de cette architecture, c’est l’automatisation de la mise en relation entre les différentes données. « Par exemple, si vous avez déjà ajouté un champ StockId à votre type d’enregistrement Store, Appian reconnaîtra et sélectionnera ce champ pour renforcer la relation entre les types d’enregistrement Store et Stock », illustre la documentation de l’éditeur.

Les champs communs personnalisés sont aussi pris en compte, ce qui permettrait aux développeurs plus expérimentés d’accélérer la création des relations dans leur structure de données.

Par ailleurs, Appian a amélioré le diagramme pour visualiser les relations entre les données. Outre des icônes qui renseignent la nature de la source de données, l’éditeur a récemment ajouté la possibilité de visualiser les relations entre les sources et les enregistrements hébergés dans la plateforme cloud Appian.

Mais ce « tissu » de données ne serait pas uniquement visuel, selon Malcom Ross.

« Notre Data Fabric peut unifier les données en provenance de sources multiples dans une sorte de couche de virtualisation », affirme Malcom Ross. « Ensuite, au moment de bâtir une application, nous reconnaissons automatiquement l’intention du concepteur et nous remodelons ces données en coulisse pour les optimiser automatiquement en fonction de l’objectif visé ».

« Notre architecture optimise la stratégie de partitionnement et d’indexation pour garantir des performances constantes et élevées, même lorsque vous ajoutez des millions d’enregistrements », complète Mickael Beckley, CTO et cofondateur d’Appian.

Appian a également optimisé data sync, une technologie de change data capture introduite il y a peu. Cette dernière est compatible avec les données de référence ainsi qu’avec les données clients. L’éditeur a mis en place ce qu’il appelle des « smart devices », des fonctions permettant de synchroniser les opérations CRUD effectuées au niveau de la source avec les enregistrements Appian. Avec le smart device Write Record, cette synchronisation est bidirectionnelle : les changements effectués dans une application Appian sont répercutés au niveau de la source.

Data sync affiche un autre avantage : les données synchronisées sont mises en cache. Toutes les requêtes et les manipulations des enregistrements Appian associés sont bien plus rapides, assure l’éditeur. « Cela permet de continuer de travailler même si un système source est non disponible », ajoute Mickael Beckley.

Dans sa documentation, Appian prévient toutefois que la synchronisation n’est efficace que pour les nouvelles entrées dans une table source et qu’il est préférable que la plateforme soit la seule entité à pouvoir exécuter des modifications de ce type dans cette table.

Pour ouvrir cette architecture vers l’extérieur, l’éditeur donne la possibilité de générer des API Web en quelques clics pour écrire ou effacer des enregistrements au sein d’une application Appian depuis un système tiers.

Ce Data fabric serait différent de celui proposé par Denodo ou Informatica, selon Malcom Ross.

« Je pense que nous sommes le seul éditeur à proposer un Data fabric en combinaison d’une plateforme low-code », déclare le CTO adjoint. « La grosse différence avec les data fabrics sur le marché, c’est que notre architecture contient une couche d’optimisation automatique qui examine les métadonnées associées à la mise en relation des données et qui élimine le besoin d’un DBA pour régler et optimiser cette structure ».

Process mining, Process Automation : Appian lisse l’expérience utilisateur

Les autres volets d’investissement d’Appian ne sont autres que l’exploration et l’automatisation des processus. En août 2021, l’éditeur a annoncé le rachat de Lana Labs, une startup berlinoise spécialisée dans ce domaine. À la fin du mois de janvier 2022, il présentait la disponibilité générale d’Appian Process Mining, une simple intégration des logiciels Lana Labs au sein de sa plateforme.

Dans le cadre de sa version 22.4, l’éditeur s’est concentré sur l’expérience utilisateur. Il a rassemblé l’ensemble des pages de gestion dans un hub de gestion permettant de naviguer plus facilement entre les logs, les modèles cibles, les scores des processus, les tableaux de bord et les filtres sauvegardés.

De plus, il met en avant un accès rapide au module de visualisation (Process Mining) et à celui consacré à la préparation des données (Mining Prep) depuis une barre de navigation. Enfin, les recherches des attributs de données sont plus fiables et plus rapides.

Il en va de même concernant l’automatisation des processus. Les utilisateurs peuvent se connecter à une machine virtuelle depuis la console RPA pour lancer des bots non supervisés, sans passer par un compte administrateur. Il n’est pas nécessaire d’allouer une VM à un compte disposant de privilèges élevés, ce qui accélérerait la mise en place des bots et empêcherait un acteur malveillant de s’emparer du compte admin et des ressources de calcul (ou plus).

L’outil de modélisation des processus a également bénéficié d’un lifting pour simplifier la conception et l’annotation des automates. Cela ne veut pas dire qu’Appian fait une croix sur son moteur de règles. Il a aussi effectué quelques ajustements pour gérer le renommage des interfaces et des expressions de règles.

Optimiser la préparation des données pour le process mining

Comme le rappelle Malcom Ross, les mises à jour proposées par Appian dans cette version 22.4 sont essentiellement incrémentales. Néanmoins le Data Fabric et le process mining sont deux volets cruciaux de la feuille de route de l’éditeur, selon le CTO adjoint.

Appian est un acteur et un témoin de la consolidation du marché du process mining, qui – selon Malcom Ross – est sorti de l’ombre grâce aux évolutions des architectures de données, notamment des systèmes d’ingestion de données à large échelle comme Apache Ignite. « Le process mining est simplement une couche de visualisation spécifique par-dessus les données collectées », résume-t-il.

Il reste toutefois un obstacle de taille, signale Malcom Ross. « L’un des défis qui subsistent est le conditionnement des données pour les rendre très facilement consommables par les outils de process mining », affirme-t-il.

« L’un des défis qui subsiste est le conditionnement des données pour les rendre très facilement consommables par les outils de process mining ».
Malcom RossVP Product Strategy, Deputy CTO, Appian

De même, il s’agit non pas seulement d’effectuer des analyses qui serviront lors de la conception de flux d’automatisation, mais également de superviser ces processus automatisés depuis une seule plateforme.

« Nous sommes en train d’intégrer davantage le process mining à l’intérieur de la pile Appian afin que nous puissions continuer à explorer n’importe quelle source de données », indique Malcom Ross. « Mais quand vous trouvez des données qui sont déjà dans Appian, nous voulons en faire en sorte qu’elles soient immédiatement exploitables ».

Pour cela, l’architecture Data Fabric pourrait être un précieux atout. « Le Data Fabric est un modèle de virtualisation de données unique qui peut intégrer différentes sources et optimiser la base de données en fonction des patterns de requêtes », explique-t-il. « À partir de 2023, nous allons introduire un nouveau modèle spécifique au process mining pour nourrir nos outils ».

Les connecteurs et les préparations de données manuelles spécifiques aux solutions SAP et Oracle ne seront plus nécessaires, avance Malcom Ross.

Le Data Fabric, une nouvelle fondation pour les architectures composables

D’autant que l’architecture Data Fabric devient un nouvel argument de vente pour convaincre les clients qui se lanceraient dans la conception d’une architecture composable.

« Notre Data Fabric est idéalement conçu pour devenir la fondation d’une entreprise composable ».
Mickael BeckleyCTO et cofondateur, Appian

« Notre Data Fabric est idéalement conçu pour devenir la fondation d’une entreprise composable, précisément parce qu’il vous permet de maintenir la connexion entre vos systèmes d’enregistrement, votre ERP, votre CRM, votre ITSM, vos données tiers », assure Mickael Beckley. « Vos données ne peuvent pas tenir dans une seule base de données et vous devez interagir avec les systèmes de vos partenaires », argumente-t-il.

« La complexité d’une architecture composable ne réside pas dans la disponibilité de modules réutilisables, mais dans l’intégration des différents systèmes ».

Un client d’Appian, l’analyste financier new-yorkais S&P Global utiliserait déjà ce Data Fabric pour connecter « des centaines de systèmes différents mis à jour des dizaines de milliers de fois par jour ». Cela représenterait « plus de mille processus » gérés depuis la plateforme Appian.

Pour approfondir sur BPM et RPA

Close