Getty Images
Pourquoi ne pas se précipiter pour déployer l’analytique en temps réel
Les outils d’analytique en temps réel promettent de fluidifier la récolte d’indicateurs et d’améliorer les processus d’entreprise, mais ils posent également des défis aux organisations qui les adoptent.
Alors que l’utilisation de l’analytique en temps réel devrait croître en 2023, les erreurs de mise en œuvre coûteront du temps et de l’argent, conduiront à de mauvaises décisions commerciales et feront perdre au personnel sa confiance dans le potentiel de la technologie, selon les observations des experts du secteur.
Pour sa part, Gartner a publié en mars 2023 les résultats d’une étude menée entre septembre et novembre 2022 auprès de 566 décideurs de la gestion des données et de l’analytique. Selon les résultats, l’année dernière, les directions responsables des données interrogées ont bénéficié d’investissement supplémentaire dans le data management (65 %), la gouvernance des données (63 %) et l’analytique avancée (60 %).
« Le budget moyen déclaré des départements Data et analytique est de 5,41 millions de dollars, et 44 % des équipes data ont augmenté leur taille au cours de l’année écoulée », écrit Gartner, dans un communiqué.
Le principal domaine d’investissement dans l’analytique avancée serait le traitement des événements complexes, d’après un autre sondage. Environ 52 % des entreprises y investissent déjà, selon une enquête mondiale publiée en novembre 2022 par le AI, Data & Analytics Network. Le traitement des événements complexes est un ensemble de technologies capables d’analyser des flux massifs de données en (quasi) temps réel. Par ailleurs, 37 % des personnes interrogées ont déclaré qu’elles utilisaient l’analyse en continu.
Pour autant, l’augmentation des investissements dans les technologies d’analytique en temps réel ne garantit pas le succès. Trois raisons principales à cela.
Perte de temps et d’argent due à des attentes mal alignées
L’une d’entre elles concerne l’interprétation de la notion de temps réel. Les organisations risquent de déchanter si tout le monde n’est pas d’accord sur sa signification. Cela peut même entraîner des erreurs coûteuses.
« Lorsque l’on risque de perdre des ventes ou un gros client, la définition de l’analytique en temps réel doit être bien comprise », explique Venkat Venkataramani, PDG de Rockset un éditeur de logiciels d’analytique en temps réel.
M. Venkataramani donne l’exemple d’un déploiement qui a mal tourné pour cette raison. Un fournisseur de services d’achat immédiat et de paiement différé a rencontré des problèmes parce que la direction pensait que le terme « temps réel » signifiait « à la minute près », alors que l’équipe chargée de la mise en œuvre du projet analytique pensait qu’un délai de six heures était suffisant pour satisfaire les besoins de l’entreprise.
L’équipe chargée des données a commencé par déployer un entrepôt de données, explique Venkat Venkataramani. « Au fur et à mesure que [l’architecture] montait en charge, le volume de pertes potentielles pouvant survenir dans cette fenêtre de six heures devenait de plus en plus important. Ils avaient déjà perdu beaucoup de paiements et de croissance ».
Les parties prenantes au projet n’étant pas d’accord sur les exigences, elles n’ont pas choisi la bonne plateforme pour la mise en œuvre.
« L’utilisation d’outils inadaptés, qui n’ont pas été conçus pour le temps réel, induira soit beaucoup de latence, comme cet intervalle de six heures au lieu de la minute, soit une solution très coûteuse dont le retour sur investissement est nul », prévient le PDG de Rockset.
Cette erreur n’est pas rare. En fait, 44 % des organisations n’ont toujours pas de stratégie de gestion des données à l’échelle de l’entreprise, selon l’enquête AI, Data & Analytics Network.
Les mauvaises décisions commerciales découlent de mauvaises données
Une fois que tout le monde est d’accord sur la notion de temps réel, encore faut-il pouvoir récolter des données de qualité. Dans le domaine du data management, l’expression « Garbage in, garbage out » est depuis longtemps un truisme.
Lorsque les processus se déroulent lentement, il est possible de détecter les erreurs et de les corriger avant qu’elles ne soient trop coûteuses. Avec l’analytique en temps réel, cette fenêtre d’opportunité se réduit à presque néant.
Les entreprises doivent s’assurer que les données sont propres dès le départ, ce qui n’est pas facile. Selon une enquête réalisée en mai 2022 par l’éditeur d’outils de gestion de pipelines de données Great Expectations, 91 % des 500 responsables de l’IT et des données interrogés ont déclaré que cela avait un impact sur les performances de leur entreprise.
Gartner estime le coût des données de faible qualité à 12,9 millions de dollars par an pour une entreprise de taille moyenne. Les pertes potentielles sont exacerbées dans les environnements en temps réel.
« Si vous n’êtes pas en mesure de gérer correctement le bruit et que vous allez trop vite, vous risquez de prendre de mauvaises décisions », signale Sanjay Srivastava, directeur des technologies numériques chez Genpact, une société de services professionnels.
Il n’est pas non plus aisé de résoudre les problèmes qui affectent les données transmises en temps réel. En fait, ces informations sont parfois incorrectes à la source. Par exemple, Genpact suit un certain nombre de paramètres IoT provenant de moteurs de machines industrielles et utilise les données pour prévoir les besoins de maintenance. Ces données provenant de capteurs physiques peuvent être irrégulières ou erratiques. Les fluctuations aléatoires qui ne sont que des bruits de fond s’atténuent avec le temps pour fournir des indicateurs pertinents.
Mais en temps réel, il n’y a pas d’opportunité.
« Si vous les examinez petit à petit, vous risquez d’obtenir des résultats incohérents quant au moment où une réparation est nécessaire », explique M. Srivastava. « Les organisations doivent réfléchir à la nature des données, à leur conclusion et à la pertinence du contexte dans lequel elles sont utilisées », ajoute-t-il.
Les procédures et les outils traditionnels de qualité des données ne fonctionnent pas toujours – affirme, de son côté, Roy Schulte, analyste VP distingué chez Gartner. « Vous n’avez pas le temps pour cela ».
Des outils existent pour aider les entreprises à traiter les problèmes liés aux données en temps réel. Il faut également compter sur des options open source comme Apache Flink, qui peut calculer des réponses plusieurs fois dans un court laps de temps. Par exemple, quelqu’un peut vouloir connaître les performances d’une machine particulière à un moment donné.
« Avec Flink, vous pouvez calculer la réponse deux fois », explique Roy Schulte. « Vous pouvez calculer la réponse tout de suite et revenir cinq minutes plus tard pour recalculer le même intervalle. En prenant en compte les données arrivées tardivement, le résultat final est plus précis », poursuit-il.
Perte de confiance, perte de moral et conflits interdépartementaux
Même après s’être entendu sur la notion de temps réel et avoir fourni des efforts pour la mise en qualité des données, le passage à l’analytique en temps réel peut bouleverser le mode de fonctionnement d’une entreprise. Cela risque de stresser les employés et les unités opérationnelles.
En 2023, 94 % des entreprises prévoient d’augmenter leurs investissements dans le traitement des données, selon une enquête de NewVantage Partners publiée en janvier 2023. Environ 80 % d’entre elles déclarent que la réceptivité et l’alignement de l’organisation, les changements de processus, ainsi que le personnel et les compétences sont les plus grands obstacles à la valorisation des données.
De manière générale, seuls 44 % des responsables interrogés estiment que leurs équipes analytiques sont efficaces, selon Gartner.
Le premier défi à relever lors du déploiement de l’analytique en temps réel ne concerne pas toujours les données ou les outils. Il s’agit de l’état d’esprit de l’organisation, explique Jerod Johnson, évangéliste technologique senior chez CData Software, un éditeur de logiciels d’intégration de données.
« Tout le monde connaît les pratiques d’analyse et de recherche de sens à partir de données collectées au fil des semaines, des mois, voire des années », estime-t-il. « Si votre organisation analyse des données en temps réel, vous devez mettre en place les processus nécessaires pour changer rapidement d’orientation si ce que vous faites s’avère inefficace ».
Il s’agit notamment d’adopter les bonnes technologies et de former le personnel à leur utilisation. Lors du déploiement de l’analytique en temps réel, les entreprises doivent suivre les meilleures pratiques en matière de gestion du changement, spécifiquement en maintenant une communication régulière. Les directions doivent élaborer un argumentaire solide en faveur du changement qui implique les employés dans le processus. Elles doivent former et soutenir les employés, mais aussi planifier la gestion de la résistance – sans oublier de célébrer le succès.
Cependant, déploiement de l’analytique en temps réel exige également de prêter attention aux risques d’une évolution trop rapide, y compris aux effets de toute erreur potentielle.
« Il faut pouvoir accepter les erreurs occasionnelles d’analyse », conçoit Jerod Johnson. « Lorsqu’elles apprennent à prendre des décisions rapidement, les organisations doivent être à l’aise avec le concept d’échec accéléré pour mieux rebondir ».
Pour approfondir sur Outils décisionnels et analytiques
-
ML et IA : comment générer un ROI pour ses projets analytiques ?
-
Oracle – Cerner : « le potentiel de l’analytique big data dans la santé est colossal » (Forrester)
-
BI : « Je vois une rébellion contre l’enfermement des clouds » (PDG de Qlik)
-
Qlik : la mise à jour de printemps cible les utilisateurs SAP