BI : les 3 piliers de l'analytique de 3ème génération

Intelligence Artificielle, ouverture et approche agnostique de la donnée sont les éléments clef des outils BI de nouvelle génération qui, selon Qlik, ont pour but de démocratiser le plus possible l'usage de la donnée jusqu'aux opérationnels.

De passage à Paris, James Fisher (SVP Strategic Marketing de Qlik) a explicité pour LeMagIT ce qu'est la « troisième génération de l'analytique ». Cette notion s'appuie sur trois piliers - IA, ouverture et neutralité vis à vis de la localisation des données.

Le responsable, accompagné de René Bergniard (Area Vice President Central Europe de Qlik), nous a également livré son analyse des intentions derrière les rachats récents des grands du cloud (Google et Salesforce en tête) qui, d'après lui, veulent reproduire la stratégie de centralisation de la BI de 2017 et rendre les clients captifs.

LeMagIT : Vous évoquez souvent le concept de « 3ème génération de l'analytique ». Pouvez-vous définir plus précisément ce concept ?

James Fisher, SVP Strategic Marketing (Qlik) : La première génération d'outils analytiques était très centrée sur les rapports, contrôlée par un très petit nombre de personnes au centre de l'organisation, et très peu flexible.

Qlik a été un des pionniers de la deuxième génération au cours de ses 25 ans d'existence. Nous avons fait naître la notion d'analytique décentralisé, agile, contrôlé par des équipes métiers, et qui crée de la valeur très rapidement.

La troisième génération consiste à permettre aux utilisateurs de travailler avec toutes les données dont ils disposent - où qu'elles se trouvent - et de tirer parti des nouvelles technologies comme l'Intelligence Artificielle (IA) et l'apprentissage statistique (non pas pour remplacer l'humain, mais pour améliorer le mode de travail de chaque utilisateur et pour relever certains des grands défis de la démocratisation de la donnée).

Le troisième composant [de cette troisième génération] est l'analytique embarquée - pour les dirigeants comme sur le terrain, pour les « travailleurs du savoir » comme pour les opérationnels, et de plus en plus, également en dehors de l'entreprise.

« Analytique augmentée »

LeMagIT : Un pilier principal de cette nouvelle génération est l'IA et le Machine Learning (ML) pour rendre l'analytique plus simple et abordable. La question est « bateau » mais est-ce le début de la fin des Data Analysts et des Data Scienstists ?

James Fisher : Non. La façon dont nous envisageons l'apprentissage statistique et les technologies cognitives, c'est vraiment d'enrichir l'expérience utilisateur.

Nous, les êtres humains, nous sommes très doués pour poser des questions. Une machine peine à le faire. Nous pouvons rendre les algorithmes aussi intelligents que possible, nous pouvons automatiser certains éléments - et il y a des processus auxquels les humains n'ont plus besoin d'être associés aujourd'hui - mais notre objectif est d'enrichir l'actif le plus précieux de nos clients : leurs collaborateurs. Parce que ce sont les gens qui comprennent les processus métiers, les clients et leurs fournisseurs.

Nous appelons cela l'« intelligence augmentée ». C'est une autre forme d'IA. Il s'agit de rendre les utilisateurs plus intelligents, non pas d'essayer de les remplacer ou de remplacer la valeur de leur intelligence. Le but est de les rendre plus efficaces et plus productifs.

« Analytique encapsulé »

LeMagIT : L'analytique « encapsulée » ou « infusée » dans d'autres applications (l'« embedded analytics ») est un autre pilier que vous citez. Mais en quoi est-ce un élément majeur de l'évolution de la BI et pas juste un gadget ?

James Fisher : Une des grandes questions [de l'analytique aujourd'hui] est : « comment faire pour toucher le plus d'utilisateurs possible dans l'organisation ? » Une partie du problème, c'est que les gens n'ont pas tous les compétences nécessaires en matière de données. Il devient donc très difficile pour eux d'agir en confiance en s'appuyant sur elles.

Ce que nous constatons, c'est qu'au fur et à mesure qu'ils deviennent familiers avec les données (peut-être pas des experts, mais de plus en plus connaisseurs), les gens ont de plus en plus envie d'utiliser les données dans leur travail quotidien, et on voit cela à tous les niveaux de l'entreprise.

Donc nous devons trouver de nouvelles façons de diffuser les usages de la donnée.

Si je prends des Data Scientists ou des Business Analysts ou même des chefs de produit, des directeurs commerciaux ou des cadres, ils iront classiquement dans une application analytique. Ils se connecteront à une solution BI. C'est ce qu'ils feront naturellement.

Mais en dehors de cet environnement - en dehors des « travailleurs du savoir » - les opérationnels, eux, ne veulent pas interrompre ce qu'ils font [pour faire de l'analytique]. Ils veulent pouvoir bénéficier des données directement sur leur appareil, ou dans le processus de livraison, ou dans la chaîne d'approvisionnement [qu'ils gèrent].

Ce qui est important, c'est de voir la façon dont chaque employé consommera les données et en tirera profit. Elle est très différente sur le terrain de celle des cadres. Les cadres ont l'habitude de regarder un tableau de bord, qu'ils veulent très complets. Un professionnel dans un atelier ou dans un magasin aura probablement besoin d'un ou deux éléments d'information - pas plus - mais il en aura besoin très rapidement pour l'aider dans son travail.

La BI de troisième génération ouvre cette possibilité de mettre de l'analytique dans un outil mobile, ou dans le portail d'un centre de distribution, ou sur un appareil pour gérer la livraison et la signature des commandes dans un camion.

LeMagIT : Mais cette démocratisation de l'analytique n'est-elle pas aussi, voire surtout, une affaire de formation et d'accompagnement des métiers ?

James Fisher : Aussi, bien sûr. C'est là que la culture de la donnée (N.D.R. : la Data Literacy) entre en jeu. Plus une organisation est grande, plus le niveau moyen de Data Literacy a tendance à baisser. Nous devons donc, aussi, aider les gens à prendre confiance dans les données pour qu'ils puissent travailler sereinement avec.

Par exemple, il pleuvait ce matin à Paris [N.D.R. : l'entretien a été réalisé le 8 octobre, lors du Qlik Data Revolution 2019]. Tout le monde regarde la météo sur son portable - en tout cas moi je le fais parce que je suis britannique et que nous, les Britanniques, nous sommes obsédés par la météo (rire).

Si [mon application] me dit « Paris, 42 degrés » alors qu'on est en octobre... je vais me poser des questions, parce que je connais le temps qu'il fait. Je sais qu'en octobre, il commence à faire humide et un peu froid. Nous devons nous assurer que les opérationnels puissent questionner les données de la même manière.

Et c'est là qu'il faut qu'il y ait une combinaison de technologie et de démocratisation de la donnée, de Data Literacy. Au passage, ce n'est pas seulement un besoin en interne. Nous voyons de plus en plus d'organisations qui veulent donner accès aux données à leurs distributeurs, à leurs fournisseurs ou à leurs clients. Tout un écosystème peut aussi en bénéficier.

Analytique agnostique et Data Gravity

LeMagIT : Le troisième pilier de cette nouvelle génération analytique est une autre forme d'ouverture. C'est la possibilité de traiter la donnée où qu'elle se trouve. En quoi est-ce une problématique nouvelle ?

James Fisher : Les grands comptes ont [un existant composé] de beaucoup de solutions analytiques [et de sources de données]. C'est un fait. Et il faut en tenir compte.

Mais aujourd'hui, on entend que la Data Gravity [N.D.R. : concept qui suppose que plus la donnée est centralisée plus elle attirera de nouvelles données] va pousser toutes les données dans le cloud et que cela résoudra tous les problèmes. Je pense que ce n'est pas réaliste.

Ce qui se passe d'ailleurs quand on envoie les données dans le cloud, c'est un peu comme un sac de billes. Quand on laisse tomber le sac, les billes vont partout. C'est la même chose pour les données, quand vous les envoyez dans le cloud, elles vont partout aussi.

On parle de « Big Data » mais dans nos tendances 2020, nous introduisons la notion de « Wide Data » (larges données). Car au fur et à mesure de l'avènement du cloud, les données se dispersent. Regardez : le nombre d'entrepôts de données cloud, de dépôts de données cloud, de bases de données cloud a connu une croissance exponentielle au cours des trois ou quatre dernières années. C'est un autre fait à prendre en compte et c'est un élément clé de l'approche [de la troisième génération].

Mais les grandes plates-formes cloud tentent de répéter ce qui s'est passé il y a 10 ans [avec la concentration des fournisseurs de BI et de bases de données]. Ils essaient de verrouiller autant de données que possible chez eux et, en fin de compte, d'en rendre l'accès plus difficile pour les clients. On a déjà vu ça auparavant [quand les gros éditeurs ont dit] : « Mettez tout dans un data warehouse et tout le monde accédera aux données et en tirera instantanément de la valeur ». Et ce n'est pas exactement ce qui s'est passé. Je pense que la même chose est en train de se reproduire.

Nous sommes arrivés à un nouveau point de basculement avec les rachats faits par les grandes plates-formes cloud dans les domaines de la gestion des données et de l'analytique. Le but de ces rachats est de capter les données et de les garder dans ces plates-formes.

En 2007, nous avons vu que l'innovation - c'est à dire la manière dont l'analytique est développé, utilisé et appliqué - a décliné. Et les coûts associés ont augmenté. C'est ce qui a d'ailleurs incité Qlik à innover. Nous croyons que les acquisitions qui ont eu lieu cette année sont une nouvelle opportunité et la preuve que notre vision [sur la nécessité de traiter la donnée où elle est] est au coeur de la troisième génération analytique.

René Bergniard : Aujourd'hui, comme en 2007, des clients commencent à dire « je suis désolé, mais je ne veux pas que toutes mes données aillent dans Salesforce, ou chez Google ou chez Microsoft, je veux garder ma liberté de choix [pour l'analytique] ».

Et c'est la beauté d'une solution comme Qlik. Vous mettez vos données et vos applications où vous le souhaitez. Azure est-il plus simple pour cette application et AWS pour celle-ci ? Votre cloud privé pour celle-là ? Le sur site ou toute autre variation [d'infrastructure] pour une autre ? [La troisième génétation de l'analytique doit être] capable de gérer cette diversité. Et aujourd'hui - je ne pense pas me tromper en le disant - Qlik est la seule plateforme capable de faire cela.

James Fisher : Nos investissements dans des éléments comme Data Catalyst, dans Attunity (qui nous permet de streamer les bonnes données au bon endroit, au bon moment), et dans les capacités d'intégration nous permettent d'aider nos clients à faire face à cette fragmentation des données. Nous ne nous préoccupons pas de savoir où se trouvent les données.

Et à l'autre bout de la chaine il est possible de publier des fichiers de données Qlik vers Tableau ou Power BI. L'analytique de troisième génération vise à faciliter cet écosystème et à s'assurer que les gens obtiennent de la valeur de bout en bout [de leur chaine analytique existante].

C'est là que nous pensons avoir une proposition unique - à la fois par rapport aux grandes acteurs du sur site, aux plates-formes cloud et aux éditeurs qui travaillent uniquement sur la partie haute du cycle analytique.

Pour approfondir sur Outils décisionnels et analytiques

Close