kentoh - Fotolia

Comprendre les concepts fondamentaux de la BI moderne

Pipeline analytique, data literacy, intelligence augmentée, avancée, activable, data lineage. La Business Intelligence foisonne de concepts. Qlik les a explicités lors de son évènement annuel. Un résumé bienvenu qui intéressera au-delà des seuls utilisateurs de l’éditeur suédois.

Le jargon de la Business Intelligence ne manque pas de termes plus ou moins explicites. L’évolution de ces outils, de plus en plus complets et de plus en plus infusés à l’Intelligence Artificielle, n’a cessé d’en rajouter. Voici les principales notions pour s’y retrouver.

Intelligence, Insight, Data Driven

Le premier concept n’est pas nouveau… mais il est fondamental. Dans Business Intelligence, l’intelligence n’est pas « l’ensemble des fonctions mentales ayant pour objet la connaissance rationnelle » comme la définit le Robert (le « smart » anglais). Le terme est plutôt à rapprocher du I de CIA (Central Intelligence Agency) – c’est-à-dire « renseignements » ou « capacité à obtenir des informations ».

Cette information intelligente (ou « insights ») est extraite des données brutes (« data » ou « points of data » en anglais).

Elle doit permettre de prendre des décisions plus « éclairées », c’est-à-dire justifiées par des éléments objectifs explicitement chiffrés et non plus sur des intuitions. D’où l’expression anglaise de « data driven » – une prise de décision « pilotée par le donnée ».

Le data driven, dans sa forme extrême – ou mal comprise – peut se transformer en une décision non plus pilotée, mais « imposée » par la donnée, c’est-à-dire qui ne s’appuie que sur des insights comme s’ils étaient des vérités absolues. Ce qui n’est à la base pas l’objet de la BI.

Pipeline Analytique

L’analytique est la partie du processus du traitement de la donnée qui extrait les « insights » (raffine les données en informations). Mais le processus analytique ne se résume pas à cette analyse.

En amont, il faut trouver les données, les comprendre, les nettoyer, les importer dans l’outil BI, les qualifier et les classer pour qu’elles soient trouvables par les analystes. En aval, il faut que les résultats de la phase analytique soient compréhensibles, voire utilisables, pour lancer des actions.

Ces trois grandes étapes – Data Preparation et intégration ; analytique en elle-même ; compréhension/diffusion de l’analytique – constituent le « pipeline analytique ».

À l’occasion du Qlik World 2021, Stéphane Briffod, directeur avant-vente chez Qlik est revenu sur cette définition. « Qu’est-ce que le pipeline de données analytique ? C’est la chaîne de valeur de la donnée de bout en bout, c’est à dire de la donnée brute jusqu’à la prise d’actions éclairées ».

Data Catalog, le menu du restaurant de la donnée

Analyser de mauvaises données ou des données incomplètes aboutira immanquablement à de mauvaises conclusions ou à des conclusions incomplètes.

Dans la première étape du pipeline analytique, il faut donc avoir des données – ce qui n’est pas si évident –, puis trouver la bonne donnée pour répondre aux questions que l’on se pose – ce qui l’est encore moins.

« La première chose, c’est d’aller chercher cette donnée où qu’elle se trouve – c’est-à-dire de la libérer des différents silos – qu’elle soit dans un ou plusieurs clouds, sur site, en interne, en externe, etc. C’est là que l’on trouve toutes ces notions de réplication de données en temps réel et de change data capture, de création automatisée de data warehouse ou de data lake pour “libérer ces données” et permettre aux utilisateurs de la trouver », liste Stéphane Briffod.

Une fois cette donnée capturée, il faut la rendre accessible aux analystes et aux métiers. « Parce qu’une fois qu’on a capté cette donnée, on se rend compte que beaucoup d’utilisateurs ont toujours du mal à la trouver », constate l’expert de Qlik.

Comme dans un restaurant qui propose une carte de ses plats ou chez un grossiste qui liste ses références produit dans un document unique, les jeux de données peuvent être listés et expliqués dans un catalogue centralisé : le Data Catalog.

« Cette notion de cataloging va préserver la traçabilité de la donnée (le Data Lineage) tout en donnant à l’utilisateur métier une expérience de “shopping de la donnée” », compare Stéphane Briffod. « Je vais avoir des indicateurs sur cette donnée (est-elle fraîche ? À jour ? Gouvernée ?) et pouvoir la publier automatiquement pour une analyse ».

Lorsqu’il est bien fait, cet annuaire permet d’aller un pas plus loin en suggérant automatiquement des jeux de données. « Par exemple, si je cherche les données relatives aux ventes, le catalogue va me suggérer la table des ventes, mais l’outil va aussi me dire qu’il est intéressant de l’associer aux tables clients, fournisseurs, et à la géographie [des magasins] ».

Analytique augmentée, analytique avancée

Une fois la bonne donnée trouvée, il faut la comprendre. C’est là qu’entre en scène l’analytique en elle-même – avec les notions d’analyse augmentée et d’analyse avancée.

L’analyse augmentée est l’ajout de fonctionnalités à base d’intelligence artificielle pour rendre l’interprétation de la donnée plus intuitive, voire automatique.

Avec un moteur cognitif, l’analytique peut ainsi devenir « conversationnelle ».

« Je pose des questions en langage naturel [N.D.R. : grâce à un moteur NLP]. L’outil va me répondre [N.D.R. : grâce au NLG]. Il va même me faire des suggestions de représentations graphiques pertinentes [par rapport à ma question]. Parce qu’on se rend compte aussi que dans les entreprises, avoir accès à la donnée est une chose, mais que tous les utilisateurs ne sont pas rompus au choix des bonnes visualisations [N.D.R. : DataViz] ». Voir ci-après la « Data Literacy ».

L’analytique augmentée est un des piliers de la nouvelle vague de la BI que le Gartner a baptisée « Modern BI ». Un autre est l’analytique avancée.

Tout comme l’analytique augmentée, l’analytique avancée utilise l’IA, mais cette fois-ci avec des algorithmes de Machine Learning et de Deep Learning, pour passer de l’analyse descriptive des données à une mise en perspective qui puisse aboutir à des prévisions voire à des prescriptions.

Data Literacy

La Data Literacy fait partie de la troisième brique du pipeline analytique, celle qui concerne la diffusion des enseignements tirés des données (Insights). On peut la définir comme la capacité à comprendre les conclusions de la BI (évaluer un pourcentage, interpréter une probabilité, lire un graphique, etc.) en fonction des données de départ.

« La data literacy est quelque chose de très important [qui permet] de démocratiser l’utilisation de l’analytique et d’être capable d’opérer une transformation pour devenir Data Driven », confirme Stéphane Briffod.

Dit autrement, c’est la « culture de la donnée ».

Active Intelligence, Analytique embarquée

Toujours dans cette troisième partie du pipeline, le concept d’intelligence active (active intelligence) est une appellation de Qlik, mais on retrouve cette même notion sous d’autres noms chez de nombreux éditeurs : HyperIntelligence chez MicroStrategy (« la BI à la Iron Man »), analytique embarquée ou analytique encapsulée.

Qu’est-ce que l’Active Intelligence ? « C’est le prochain chapitre de la BI. C’est ce qui doit permettre de voir les moments clés – grâce à des alertes intelligentes quand la donnée change – puis de lancer des actions immédiates et de prendre des décisions par rapport à ces moments et ces changements », résume Stéphane Briffod.

L’alerte peut être définie soit par l’utilisateur soit par l’administrateur en fonction des usages.

L’intelligence active prend tout son intérêt quand les alertes et les recommandations sont directement accessibles et poussées dans les applications opérationnelles (CRM, ERP, SCM, etc.) – quand « on amène la BI dans le processus métier » dit Stéphane Briffod. Par exemple, une hausse des ventes détectée par la BI peut activer une alerte dans l’application de gestion de stocks d’un ERP ou dans un outil de gestion d’entrepôts (Warehouse Management System), pour lancer un réapprovisionnement. D’où la très étroite proximité du concept avec les notions d’analytique « embarquée » ou « encapsulée ».

Deux guides du MagIT pour vulgariser la BI dans votre organisation :

Analytique augmentée : guide pour bien choisir sa BI de nouvelle génération
Pour s’y retrouver dans l’analytique augmentée, l’analytique avancée, et l’automatisation du Machine Learning.

Data Storytelling : comment mettre la donnée en scène pour diffuser la Data Science
Pour que des « insights » soient utiles, il faut savoir les transmettre – et donc savoir les mettre en scène et les contextualiser. Ce guide vous donne des conseils clefs pour devenir un bon « narrateur de la donnée ».

Pour approfondir sur Outils décisionnels et analytiques

Close