Data Management : la qualité des données se cherche une place dans les SI

En dépit d’une prise de conscience évidente autour de la nécessité de politiques de Data Management, les entreprises sont encore frileuses à mettre en place des applications censées garantir la qualité des données. Trop couteuses, trop longues à implémenter, ces applications sont des projets complexes pour les DSI, même si les directions métiers sont fortement demandeuses.

L’ère du “Big Data” a sonné, s’accordent à dire tous les analystes, mais les entreprises n’ont pour la plupart pas encore véritablement attaqué le problème sur le fond, semble répondre aujourd’hui une étude du cabinet d’analyse britannique Coleman Parkes Research. Mettant en lumière un vide que les entreprises seront appelées à combler mais aussi un marché d’avenir pour les fournisseurs de technologies.

Le “Big Data”, c’est aujourd’hui le mot clé pour qualifier l’afflux massif de données auquel certaines entreprises sont confrontées au quotidien. Un volume tel, nous assure le cabinet qu’il impacterait négativement 2 entreprises sur 3 interrogées dans le cadre de cette étude (un échantillon de 641 entreprises mondiales (dont 266 localisées dans la zone EMEA). Pourtant, la gestion de ces données et des information qu'elles contiennent, n’a pas encore atteint la masse critique dans les SI des entreprises. Au total 63 % affirment qu’elles pourraient être bien plus performantes dans leurs processus. La raison de cette inefficacité ? Le manque d’une administration de l’information centralisée, explique Coleman Parkes Research.

L’étude révèle ainsi que seules 4 entreprises sur 10 ont une approche centralisée de la gestion des données critiques de l’entreprise. 37 % ont une approche géographique, répartie par sites : 21 % la gestion est étalée dans chaque département de l’entreprise et contrôlée, donc, par son responsable. L’approche par silo semble encore primer. Autre donnée intéressante, la gestion de l’information n’est pas forcément associée à une approche technologique, entre les mains de la DSI. Pour 38 %, la direction générale en détient les clés et 43 % citent les responsables informatiques.

Comme le laisse entendre Bertrand Diard, Pdg de Talend, si les divisions métier sont aujourd’hui demandeuses de solutions performantes en matière de qualité de données, les DSI sont encore trop souvent cantonnées à leur fonction de support de l’infrastructure. La tendance commence toutefois à évoluer, notait-il. Face à des schémas d’adoption encore fluctuants, les marchés associés au data management restent largement embryonaires.

Le très sérieux Gartner voit le marché du MDM atteindre les 3 milliards de dollars en 2013. En 2009, SAP, Oracle et IBM contrôlaient 40% de ce marché; et 30% étaient entre les mains de pure-players, toujours selon le cabinet d’analystes. Le segment de la qualité de données a quant à leui été estimé à 727 millions de dollars en 2009 par le même Gartner, avec un rythme annuel de croissance de l’ordre de 5% sur 5 ans. Il recelle donc un vrai potentiel de croissance. 

Les éditeurs affutent donc leurs offres, pour pénétrer le segment du data management et plus particulièrement celui du MDM. On se rappelle les rachats d’ Initiate Systems par IBM, celui de Syperian par Informatica et de Data Foundations par Software AG, qui se sont succéder à un rythme effréné. Pourtant, il semble qu'il reste encore un obstacle de taille : celui du coût des solutions. A l’exception de Talend qui utilise le levier de l’Open Source pour tirer les prix par le bas, le ticket d’entrée, jugé souvent bien trop élevé, pour une solution pérenne de MDM, oblige les DSI à mettre en place de longs projets, afin de pouvoir créer un plan de ROI pertinent. En matière de data management, le Big Data a encore les dents longues. 

Egalement sur LeMagIT : - Tribune : Master Data Management : le temps de passer à l’action ? - Data Management : le doux vent de la rentrée souffle sur Hadoop 

Bertrand Diard (Talend) : “dans la qualité des données, les DSI se sont trop cantonnés à leur rôle du support de l’infrastructure”

A l’occasion de Solutions Linux 2011, Bertrand Diard, Pdg de Talend, est revenu sur le lancement de sa plate-forme unifiée, qui s’adosse au nouveau bus de services de la société, fruit du rachat de Sopera, et sur les enjeux que doivent aujourd’hui relever les entreprises en matière de qualité des données.

 

LeMagIT : Comment l’acquisition de Sopera [qui développe un bus de services à base de composants Apache, NLDR] s’inscrit-elle aujourd’hui dans la stratégie du groupe ?

Bertrand Diard : Lors du rachat, j’ai affirmé que Sopera allait être un des composants clé de notre offre cloud. Et on voulait créer cette plate-forme unifiée avec comme vision,  l’émergence de la fusion entre les besoins d’interopérabilité des applications et le besoins d’infrastructures associés à cette interopérabilitié. A chaque fois qu’un message passe entre deux applications, comme Salesforce et SAP par exemple, au milieu de chaque process se trouve une problématique liée à la donnée et tous les métiers s’appuient dessus […] On traite toutes les phases amont dans le data management. On pense que la valeur d’une application se situe à 2 niveaux : la capacité de l’application à reproduire les besoins métiers, il s’agit du BPM et nous avons des accords forts avec BonitaSoft [ Bertrand Diard siège en son Conseil d’administration, NDLR]. De l’autre côté, il y a la donnée sur laquelle s’appuie ce processus. Si la donnée est juste, le métier avance. On considère que les applications d’entreprises, du CRM à l’application de e-commerce, ont besoin de communiquer entre elles. Et que le pitch de SAP qui consiste à dire qu’il va tout faire n’existe plus. Une fois la donnée consolidée dans le MDM, que sa qualité est bonne avec les bons flux d’intégration, la donnée devient un service. Aujourd’hui , on peut commencer à appeler et orchestrer les services de data management à travers notre bus. Il s’agit du premier jet de l’intégration de Sopera. Une autre arrive en novembre. 

LeMagIT : Comment se positionne la nouvelle plate-forme unifiée de Talend sur le Big Data ? 

B.D : Qu’est-ce d’abord que le Big Data ? Les entreprises se retrouvent avec des masses volumineuses d’informations qui se retrouvent plus très chères à stocker dans l’infra, sauf que la donnée stockée n’a pas de valeur pour l”entreprise et le métier. On entre donc dans une nouvelle phase qui est la création de valeur autour de cette information, c’est le Big Data. Cela se résume en 3 composants : la capacité à aller consolider toutes les sources d’informations; créer de la donnée de qualité pour le SI. Et utiliser ces données comme un point de référence de l’entreprise. On est positionné sur ces 3 domaines. Mais on va aujourd’hui plus loin : on considère que ces données sont au service du métier et de l’entreprise - c’est là qu’intervient la partie bus de services et intégration. On pense la valeur de la donnée comme un service pour l’entreprise. On va consommer des services de données. Nous sommes en train de transformer le Data Management comme un service, au travers du bus. C’est ainsi que se présente notre plate-forme unifiée. La valeur de la donnée n’est plus de s’occuper de l’infrastructure. Le métier et l’application consomment seulement des services. Ce qui se passe en dessous, c’est de l’ordre de la plomberie, pour le monde IT. 

LeMagIT : On va donc au delà du DSI pour parler aux départements métier. Une forme de démocratisation ?

B.D : Les DSI doit mettre à disposition des métiers, l’infrastructure nécessaire pour faire son business. Mais si la donnée n’est pas de qualité, les métiers n’ont pas les bonnes métriques pour avancer. Ils ne regardent pas dans la bonne direction. […] La qualité de la donnée est liée au fait que plus on a de l’information, plus l’entreprise a de la valeur.  L’entreprise devient plus performante et plus compétitive, mais il faut toutefois que l’information soit bonne. Si un client est par exemple relié à la mauvaise donnée, l’entreprise ne sera pas pertinente. On parle donc de qualité. Ce n’est plus lié au stockage, à la consolidation, à l’interopérabilité de la donnée, mais à sa valeur. Tout ce qui se passe avant est démocratisé et est devenu de l’ordre de la commodité. L’enjeu est désormais de donner de la valeur à la donnée et cela devient la principale préoccupation des entreprises […]  On entre de l’ère de la productivité de la donnée. 

Chez Ebay [un des clients Talend, NDLR] par exemple, à chaque fois qu’on visite une page du site, on crée un log. Au regard du nombre très élévé de visiteurs, cela représente un grand volume de données. On croise et fusionne ces données pour créer du profiling autour des utilisateurs. Mais la clé n’est pas ce croisement, c’est surtout la qualité qu’on va pouvoir associer à ces données [...] L’erreur fondamentale des DSI, dans le passé, c’est qu’ils se sont cantonnés dans leur rôle de support d’infrastructure. Ils donnaient du stockage et du disque dur aux métiers, avec des possibilités de restauration, par exemple Mais à aucun moment, ils ne se sont estimés au service du métier, plutôt qu'à celui de l’infrastructure, pour donner de la valeur à leur quotidien. Cela est en train de changer. Les grands éditeurs en sont surtout les responsables, car ils sont allés vers des couches assez faciles à mettre en oeuvre. Il y a 15 ans, le CRM était ce qu’il y avait de plus cher.

Aujourd’hui le CRM s’est démocratisé, notamment avec Salesforce.com qui prend le pas sur eux. Ils ont essayé de passer par des couches intermédiaires en expliquant que la qualité de la donnée coûtait un prix faramineux. Alors qu’aujourd’hui ce n’est pas vrai. Notre offre de base est par exemple accessible à partir de 15 000 $ par an.  Le DSI s’est retrouvé coincé entre des contraintes budgetaires et la demande du métier pour une donnée de qualité. Chez Talend, on a démocratisé l’intégration de données, on est en train de faire la même chose avec la qualité de données. 

LeMagIT : Où se gère la qualité dans la pile Talend ?

B.D : Aujourd’hui, on estime que ce n’est plus nécessaire de faire du data management, s’il n’y a pas de qualité de données. C’est natif dans notre offre de plate-forme unifiée. La qualité de donnée se situe au niveau du flux. On est la seule offre à présenter, dans la même interface, les phases  de l’intégration à la qualité. 

LeMagIT : Une fois cette qualité atteinte, comment gérez vous l’interface utilisateur, la génération des rapports ou les tableaux de bord ? 

B.D :Aujourd’hui, on a pas de front-end utilisateurs pur en termes de reporting et de visualisation de données et analytics. On se charge de préparer en amont la valeur. […] Les outils de reporting, et hormis dans le prédictif, n’ont plus vraiment de valeur. On se repose sur des partenaires, comme Actuate, Jaspersoft, SpagoBI, BO. On n’adresse pas ces couches là [...] 

LeMagIT : A quelle autre brique pensez-vous pour compléter la pile Talend ?

B.D : On est effectivement une société qui peut consolider le marché. On a réalisé deux acquisitions depuis notre création [ Amalto en 2009 et Sopera en novembre 2010]. […] Cette plate-forme unifiée ainsi que le Cloud vont constituer le corp de notre stratégie pour le futur. Après avoir abordé les couches de middleware, on va passer à des dimensions sur lesquelles on va pouvoir créer de la valeur métier. Il y a eu le reporting, l’analytic, l’Olap et aujourd’hui il y a le prédictif. Quand on parle de prédictif, on insère dans la couche de reporting des algorithmes intelligents qui donnent une extrapolation des activités de demain. Et c’est possible à condition d’avoir le bon plateau d’infrastructure. Avec le CEP, on va disposer de patterns, on va réussir à rendre intelligente la plate-forme unifiée. On lui donnera de la valeur en la rendant prédictive. Et là, on commence à aborder les règles métier, le CEP. 

LeMagIT : Quel avenir dans le MDM ?

B.D : Les solutions sont là, mais comme la qualité de données, elles ne sont encore accessibles que par les riches. Il y a une prise une conscience des entreprises sur les enjeux de disposer de référentiels centralisés au service des métiers. Mais si on ne dispose pas d’un million de dollar, on ne parlera pas à un commercial. Ce phénomème là évolue. Quand on a sorti notre MDM en 2010 , Siperian a été racheté par Informatica, Initiate par IBM [citons également le rachat de Data Foundations par Software AG, NDLR], la mouvance s’est accélérée, tout comme la concentration dans l’industrie. Car cela représente un besoin pour tout le monde. […] On a lancé notre solution en janvier 2010; au T4, cela représentait 23% de nos ventes. Aujourd’hui les DSI sont encore tétanisés par l’ampleur des projets, avec des mauvaises expériences, notamment sur SAP. 

Le MDM continue de souffrir des politiques internes 

L’un des principaux obstacles au succès du MDM est de convaincre les dirigeants de divisions indépendantes que partager l’information est positif. C’est du moins le constat des DSI qui participaient au récent MDM Summit organisé par Gartner. Le Master Data Management est une méthodologie de plus en plus populaire qui associe technologie, gouvernance des données et processus métiers pour parvenir à établir «une source unique de la vérité ». Le but étant de synchroniser les données au travers des divisions de l’entreprise et, in fine, d’améliorer l’ensemble de son fonctionnement, depuis l’expérience client jusqu’à l’analyse et au reporting décisionnel. 

Mais atteindre cet objectif nécessite la bonne volonté des responsables métiers - propriétaires des données - pour qu’ils acceptent de partager l’information au sein de l’organisation. Leur demander de procéder de la sorte peut générer toute sorte de craintes, à commencer par celle d’abandonner une part de contrôle et de perdre de sa valeur personnelle pour l’entreprise. C’est du moins ce qu’en disent les DSI. «Le MDM doit permettre d’obtenir une vérité. Ce qui signifie qu’il faut partager les données », explique Frank Badolato, architecte données chez Boeing. «L’une des choses que je vais faire, c’est essayer d’utiliser le terme de “gérant” des données plutôt que celui de “propriétaire”. Ainsi, les directeurs métiers se sentent peut-être un peu moins liés à leurs données.» 

Une nécessaire collaboration au sein de l'entreprise 

Pour beaucoup d’organisations, le problème se résume souvent à un changement de culture d’entreprise. Chez Boeing, par exemple, les employés furent, par le passé, récompensés pour apporter eux-même, seuls, des solutions aux problèmes. Beaucoup ont même reçu des sortes de «brevets» internes. En clair, ils étaient propriétaires de la solution qu’ils avaient créée. Toutefois, récemment, Boeing a abandonné cette approche pour encourager la collaboration. Ses représentants ont été souvent entendus en train d’évoquer un concept de travail d’équipe appelé «One Boeing.» «Lorsque vous avez un brevet et que vous travaillez sur quelque chose, il n’est du tout avantageux de le partager avec tout le monde », relève Badolato. 

«Désormais, il n’est plus question que d’environnement de travail collaboratif et c’est un retournement complet par rapport à ce à quoi chacun a pu être habitué. Nous avons de nombreuses implantations à travers le pays et même le monde. Et c’est difficile d’amener tout le monde à commencer à faire les choses de la même manière.» 

Manish Gupta, qui est responsable des bases de données, du stockage et de l’infrastructure décisionnelle d’une grande entreprise d’édition, a essayé de centraliser la gestion des données et de mettre en oeuvre le MDM au sein de cinq entreprises différentes. Et pour lui, effectivement, les craintes des chefs de lignes de produits pour leur emploi, ont souvent ralenti le processus. «Désormais, nous réfléchissons fortement à la manière dont nous pourrons créer une façon centralisée de gérer nos données maîtres et, dans le même temps, nous cherchons à identifier les problèmes d’intégration de données entre les divisions, notamment», a-t-il expliqué, soulignant au passage que «c’est très politique ». 

L’une des façons de réduire les craintes des responsables métiers est de les associer au processus de mise en place du MDM, dès le début. Il peut également être pertinent de leur montrer qu’améliorer la qualité des données permet de réduire les coûts, le risque et, en définitive, de renforcer la réussite des différentes divisions. «Impliquez réellement les métiers dans le processus », lance Gupta. «Sans quoi, le projet sera perçu comme une grosse nuisance.» 

Le MDM : un processus continu d'amélioration des données 

Ceux qui pilotent des initiatives MDM doivent insister sur l’idée que le MDM est un processus continu - pas un projet avec une fin à portée de main - et ils doivent montrer en continu les apports métiers du MDM, estime Isabelle Davis, chef de projet senior MDM chez Watts Water Technologies. Le processus consistant à faire la démonstration des apports métiers à des collègues peut largement varier selon les considérations prises en compte, souligne-t-elle. 

Par exemple, pour une personne chargée du décisionnel, c’est le fait que des données plus fiables apportent des analyses plus justes. «Vous pouvez faire du reporting toute la journée sur ce que vous voulez. Mais si les données sont erronées, vous produisez des rapports erronés. C’est cela qu’il faut dire une personne du domaine du décisionnel.» Et avec un directeur financier ou un Pdg, c’est plutôt l’apport du MDM en matière d’industrialisation des processus et de réduction des coûts associés à la correction manuelle des données erronées qui remportera l’adhésion. «Prenez vos points MDM clés et associez les à des points clés pour les métiers », résume Davis. «C’est de là que viendront les économies et c’est à cela que pense un Pdg.» Par Mark Brunelli, pour SearchDataManagement.com Adapté de l’anglais par la rédaction

La gestion des données démystifiée

Les participants de la conférence Enterprise Data World 2011 à Chicago, début mai, ont eu une vraie surprise en découvrant la situation que l’analyste de Forrester Rob Karel leur a dépeint lors de son intervention consacrée à la gestion des données. La diapositive, présentant un couple malheureux, assis sur un canapé et incapable de communiquer ensemble, symbolisait la relation typique qui existe entre gestion des processus métiers et gestion des données. Et elle n’a pas manqué de faire rire. Karel, un expert des technologies et des stratégies de gestion des données, voulait ainsi illustrer son propos : selon lui, les efforts de gestion des données et de gestion des processus métiers devraient être considérés comme les deux côtés d’une même pièce. Et les deux populations concernées ont plus besoin l’une de l’autre qu’elles ne l’imaginent. SearchDataManagement.com a pu interroger Rob Karel pour développer le sujet et collecter quelques conseils susceptibles d’aider les organisations à rendre cohérents leurs efforts de gestion des processus métiers avec ceux de gestion des données.

Quelle est la différence entre gestion des données des processus et gouvernance des données des processus ? 

Rob Karel : La gestion des données des processus est une approche qui part du principe que les efforts de gestion des données seront plus efficaces s’ils se concentrent sur les processus métiers et les décisions que permettent les données. La gouvernance des données des processus consiste à coordonner les efforts de gouvernance des données avec les efforts de gouvernance des processus pour assurer que les priorités de gestion des données touchent bien aux processus métiers et décisions les plus critiques. C’est s’assurer que vos efforts sur les processus métiers acceptent d’être tenus responsables de la qualité des données. 

Il est clair que vous estimez que les organisations ont besoin d’un alignement plus étroit entre gestion des données et gestion des processus métiers. Est-ce un problème nouveau ou est-il ancien ? 

R.K: Je n’ai rencontré personne pour contredire cette approche lorsque je l’ai évoquée. Vous ne trouverez personne pour vous dire «non, ce n’est pas ça qu’il faudrait faire ». L’idée, c’est que, au quotidien, les professionnels de la gestion des données et de la gestion des processus métiers ne le font pas, tout en sachant qu’ils devraient le faire. Ils reconnaissent que c’est important mais ils semblent penser que ce n’est pas pour eux.  

Comment décririez-vous les attitudes de professionnels des processus métiers et de la gestion des données lorsqu’il est justement question d’améliorer l’alignement de leurs activités ? 

R.K : Le premier dit : «les données, c’est le problème de la DSI, n’est-ce pas ? Elle doit me fournir des données fiables ». Mais il oublie de demander comment la DSI est supposée définir la qualité de données qu’elle ne consomme pas... Et du côté de la DSI, le problème est le même : on lui a appris que les métiers ne veulent pas entendre parler des données. Du coup, plutôt que de chercher à engager la conversation, la DSI a baissé les bras. Elle essaie juste de résoudre les problèmes de son côté ce qui, bien évidemment, conduit à de nombreux investissements rapportant très peu de valeur. 

Quel rôle devraient avoir les analystes métiers d’une organisation pour, justement, contribuer à améliorer l’alignement de la gestion des processus métiers et celle des données ? 

R.K : Dans une organisation, les analystes métiers sont le lien entre métiers et DSI. Ces personnes sont les plus capables d’avoir des conversations tantôt techniques et tantôt non techniques. Ces personnes sont les traducteurs : ils savent traduire un problème métier en un ensemble de spécifiques techniques, et ils savent comment décrire une capacité technique en une fonctionnalité métier. En d’autres termes, ils savent parler les deux langues. C’est en cela que leur rôle est critique. 

Les consultants se plaignent souvent de l’incapacité des utilisateurs métiers à documenter correctement leurs workflows et leurs processus. Selon eux, c’est quelque chose qui rend encore plus difficiles les efforts d’alignement. Comment les organisations pourraient-elles améliorer la situation ? 

R.K : On ne peut pas considérer qu’il y a le même niveau de maturité des deux côtés - celui de la gestion des processus métiers et celui de la gestion des données. J’en ai discuté avec beaucoup d’organisations dont les efforts de gestion des processus métiers sont arrivés à maturité, avec des processus bien documentés. Mais, pour autant, elles n’ont aucune compétence en matière de gestion des données. Comment résoudre cela ? Quelque soit le contexte, tirez profit de votre maturité dans un domaine pour améliorer la maturité dans l’autre. 

Quel conseil pouvez-vous donner aux organisations qui veulent commencer à améliorer l’alignement de leurs efforts de gestion des données et ceux de gestion des processus métiers ? 

R.K : La première chose à faire est de changer le dialogue. Du point de vue d’un professionnel de la gestion des données, dès que vous vous surprenez à essayer de définir des priorités et un périmètre sur la base des données, arrêtez-vous et demandez-vous si les données sont véritablement ce qui compte pour les métiers ou si ce sont les processus et les décisions que les métiers peuvent prendre. Partez des processus et des décisions qui sont les plus critiques pour votre organisation, puis identifiez les données qui alimentent ces processus, vous ferez un travail plus efficace et réussirez à rentabiliser vos investissements.

Approfondir

Participer à la conversation

1 commentaire

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

"Seules 4 entreprises sur 10 ont une approche centralisée de la gestion des données critiques de l’entreprise" ça fait peur ! Selon moi c'est aussi un manque d'information de la part des entreprises sur les solutions qui existent. Aujourd'hui il existe des sociétés qui proposent des fonctionnalités complémentaires aux PLM, ERP etc. en termes de sécurité, stockage et diffusion des données et documents et qui sont vraiment intéressantes, https://www.sealsystems.fr/ pour n'en citer qu'une. 
Annuler

- ANNONCES GOOGLE

Close