Cet article fait partie de notre guide: Le Grand Guide de la BI 2016-2017

Montée en puissance du Big Data et analytique: quelles options pour les architectes BI

Face à la prise en compte grandissante des Big Data dans les entreprises, et à la nécessité de reporting et d’analytique plus présente, les architectes BI doivent aujourd’hui faire des choix. Différentes options se présentent à eux.

En matière d'intelligence décisionnelle - ou BI (Business Intelligence) - les architectes se sont trouvés, à un moment donné, confrontés à un choix relativement simple entre deux technologies de traitement analytique en ligne : multidimensionnelle ou relationnelle. Aujourd'hui, l'intelligence décisionnelle proposée aux entreprises est considérablement plus exhaustive, et les blocs fonctionnels qui font l'architecture des plates-formes BI se sont multipliés, tout comme les systèmes de gestion d'entrepôts de données sous-jacents.

Et lorsqu'elle induit une hausse des coûts technologiques et de la complexité d'administration, cette diversité peut devenir un handicap. Pour les architectes et les responsables BI, à une époque où les volumes de données augmentent rapidement et où les types d'informations collectés se multiplient et voient leur nombre exploser dans nombre d'entreprises, cette nouvelle donne n'en reste pas moins essentiellement avantageuse.

Parallèlement, les exigences de l'utilisateur final en matière de rapports et de données d'intelligence décisionnelle se développent et se complexifient ; en effet, les ressources BI et les éléments d'analyse tiennent un rôle de plus en plus central dans l'exploitation et la planification métier. Dans nombre de cas, les utilisateurs métier recherchent les capacités ou les outils en libre-service d'intelligence décisionnelle mobile (mobile BI) qui leur permettront de contourner la rigidité des modèles de rapport et des requêtes développées par le service informatique, afin de pouvoir hacher menu les données en fonction de leurs besoins et intérêts propres.

« Le recours aux éléments d'analyse est en hausse exponentielle et le libre-service constitue une tendance de masse », explique Boris Evelson, analyste chez Forrester Research Inc. (Cambridge, Massachusetts). Il ajoute que les avancées technologiques récentes, qui soutiennent une analyse des données plus « libre », font toute la différence par rapport aux processus BI tels qu'ils étaient mis en œuvre à l'époque où les utilisateurs travaillaient exclusivement à partir de schémas fixes créés par les services informatiques.

La conséquence selon Boris Evelson, est que lorsqu'ils cherchent à répondre aux nouveaux besoins et aux nouvelles exigences des utilisateurs et, dans le même temps, à prendre en charge des ensembles de données plus volumineux et plus variables, les architectes BI ont besoin d'aide pour mettre en place rapports, tableaux de bord et outils d'intelligence décisionnelle.

Par exemple, comme l'explique Boris Evelson, en matière d'environnement Big Data, qu'elles soient ou non structurées, de grandes quantités de données seront inadaptées aux tableurs et aucune requête SQL ne sera possible sur une telle quantité d'informations dans un délai acceptable. Selon lui, l'aide nécessaire peut revêtir la forme d'un logiciel d'analyse en mémoire (in-memory) ou d'autres outils d'exploration et de découverte de données qui offrent des capacités de styles de recherche et n'obligent pas l'utilisateur à travailler à partir de modèles de données prédéfinis. Les clusters Hadoop et outils associés, tels que l'infrastructure de programmation d'applications MapReduce et les bases de données NoSQL, peuvent également servir la cause de l'analyse Big Data.

Éléments de réflexion pour l'architecte BI

Il y a pléthore d'autres choix à la disposition des architectes BI. En novembre 2012, Boris Evelson et ses collègues de chez Forrester ont procédé à l'analyse détaillée d'une architecture de référence comprenant plus de 35 composants sur six couches distinctes, dont la portée allait des sources de données jusqu'aux mécanismes de leur mise à disposition. Cette architecture de référence comprend également sept éléments de prise en charge qui couvrent l'intégralité des différentes couches, y compris les Big Data, les métadonnées intégrées et la gestion du cycle de vie des informations.

Boris Evelson et l'analyste Forrester Noel Yuhanna ont convenu dans un rapport qu'ils ont co-rédigé sur l'architecture de référence que cette dernière « [tenait] de l'usine à gaz ». Mais c'est aussi le cas des vraies... « Une architecture d'intelligence décisionnelle n'est jamais simple. C’est particulièrement vrai dans les grandes entreprises hétérogènes d’envergure mondiale », écrivent-ils. « Ces entreprises comptent toujours plusieurs entrepôts de données, des centaines de magasins de données et plusieurs plates-formes d'intelligence décisionnelle. »

Même les technologies d'arrière-plan qui injectent les données dans ces plates-formes se sont considérablement développées, et ce au-delà d'entrepôts et de magasins de données relationnels, ressources jusqu'alors classiques pour les architectes. Parallèlement aux systèmes de fichiers Hadoop et aux bases de données NoSQL, les bases de données en colonnes, appliances d'entrepôt de données et systèmes de bases de données en mémoire sont autant de nouveaux éléments d'infrastructure.

« À une époque, les possibilités d'analyse de données se cantonnaient aux produits de quelques acteurs dominants et d'une poignée de startups de haut de gamme. Aujourd'hui, l'offre est bien plus importante », explique Joe Caserta, Président de Caserta Concepts LLC, un cabinet de conseil et de formation de New-York spécialisé dans les entrepôts de données. Avec Ralph Kimball, consultant en gestion d'entrepôts de données et en intelligence décisionnelle, Joe Caserta est également co-auteur de l'ouvrage The Data Warehouse ETL Toolkit.

Boris Evelson émet cependant certaines réserves : la pléthore de composants disponibles ne doit pas entraîner de surconsommation. La mise en place d'un trop grand nombre de composants architecturaux pourrait déboucher sur du shelfware, à savoir des technologies installées... et inexploitées. « Les grandes entreprises possèdent souvent plus d'outils qu'elles n'en ont besoin », explique-t-il. « Quant aux entreprises de moindre envergure, elles doivent comprendre que si elles peuvent obtenir 80 % de ce dont elles considèrent avoir besoin, c'est un bien meilleur score que 500 %. »

Systèmes BI : l'architecture comme témoin à (sur)charge

Krish Krishnan, analyste chez CBIG Consulting (Rosemont, Illinois), s'accorde à dire qu'en termes de développement d'architecture d'intelligence décisionnelle, le plus est souvent l'ennemi du bien.

« Dans la majorité des cas, différentes architectures sont nécessaires », explique Krish Krishnan, « particulièrement aujourd'hui, où les environnements d'entrepôt de données s'étendent jusqu'à inclure les Big Data et où l'idée d'une plate-forme BI d'entreprise unique et homogène n'est plus de mise dans de nombreuses entreprises. "Chaque jour voit apparaître son lot de nouveautés", poursuit-il, "Et l'hétérogénéité est au rendez-vous."

Toutefois, comme Boris Evelson, Krish Krishnan met en garde : concevoir une architecture BI réussie ne signifie pas « absorber des logiciels ». "Combiner des éléments architecturaux de manière ingénieuse est la clé de la réussite", explique-t-il tout en faisant remarquer que les équipes BI doivent également se préparer à adapter les architectures pour permettre la corrections de problèmes liés aux données, et pour répondre à des exigences métier.

"Impossible de faire du prêt-à-porter informatique [en conception d'architecture]. Chaque organisation est unique", explique Krishnan. Résultat ? Les architectes BI doivent raisonner "au-delà des offres commerciales standard"... une approche trop souvent absente à ses yeux dans les entreprises.

Suivez SearchDataManagement.com sur Twitter: @sDataManagement

 

Pour approfondir sur Outils décisionnels et analytiques

Close