Cet article fait partie de notre guide: In-Memory : quels sont les usages

Le In-Memory pour résoudre les problèmes d’analyse du Big Data

Les outils In-Memory et le Big Data peuvent former un puissant cocktail analytique. Mais avant de les rassembler, il s’agit de comprendre l’interaction entre les deux mondes.

Selon le cabinet d’analystes Gartner, l’adoption de l’informatique In-Memory suit une tendance à la hausse qui s’accélère. Selon ses propres chiffres, au moins 35% des moyennes et grandes entreprises auront opté pour la technologie en 2015, contre moins de 10% en 2012. Cela est notamment dû à la forte mise en avant de SAP et Oracle qui commercialisent des applications In-Memory, HANA pour le premier, Exalytics pour le second. A cela s’ajoute un autre facteur : les éditeurs d’outils de BI en self-service, comme QlikTech, Tableau ou encore Tibco, sont entrés dans les Magic Quadrant portant sur les plates-formes de BI du cabinet, au rang de leaders.

Entre alors en scène une tendance technologique vers laquelle tous les regards se tournent : le Big Data. Si l’on rassemble le In-Memory et le Big Data, qu’obtient-on ? Une combinaison détonante capable d’accélérer l’analyse de toutes les données structurées et non structurées que les entreprises génèrent, collectent et stockent, et bien sûr, sur lesquelles elles espèrent, un jour, pouvoir capitaliser.

Un cocktail In-Memory – Big Data, qu’Alan Bowling, le président du groupe d’utilisateurs SAP au Royaume-Uni, considère comme une des clés de l’adoption de ce nouveau paradigme auxquel sont confrontées les entreprises. Sans puissance de calcul, impossible d’appliquer des processus analytiques à l’ensemble des données intéressantes pour les métiers. Au risque donc de rester cantonné à une partie infime du patrimoine informationnel si riche que renferment les systèmes de gestion.

Dans une tribune chez nos confrères de ComputerWeekly, il écrit ainsi : « le concept derrière le In-Memory est relativement simple. Traditionnellement, les données sont placées dans les systèmes de stockage, puis lorsque nécessaires, sont rendues accessibles et placées en mémoire. Cela a pour effet de provoquer un goulet d’étranglement naturel qui réduit les performances. Même avec les disques SSD les plus rapides, il existera toujours un délai entre l’accès aux données, leur transfert en mémoire puis leur retour, pour que le prochain lot de données puisse être utilisé. Alors que les volumes de données augmentent, augmentent également le temps d’accès et par conséquent d’analyse.

Le traitement In-Memory bénéficie d’une meilleure compréhension de la structure de la donnée et de sa méthode de stockage, d’une baisse de prix continue de la mémoire, et de mémoire SSD plus abordable qui permet de s’éloigner du concept traditionnel du stockage. La donnée est donc stockée directement dans la mémoire de l’ordinateur. Ainsi, lorsqu’elle a besoin d’être analysée, elle est déjà disponible et peut être utilisée de façon quasi-instantanée.

Le gain le plus évident du traitement In-Memory est la vitesse. Sans goulet d’étranglement, les entreprises ont la capacité d’analyser rapidement les données et de les exploiter au cœur de leurs stratégies.

La vitesse est ici critique. Plutôt que d’analyser l’information pendant des jours ou des semaines, les entreprises réalisent des requêtes complexes en quelques minutes, passant au crible leur opérations et les améliorant selon une situation donnée et présente, et pas selon celle de la semaine dernière. En même temps, les entreprises peuvent interroger un grand volume de données plutôt qu’un échantillon : elles sont ainsi sûres de prendre en compte tous les faits.

Cette puissance et cette vitesse de traitement ont également d’autres avantages. Plutôt que d’essayer de rationaliser les vitesses des analyses en présentant les données dans un format rigide qui répond selon à certaines requêtes, les entreprises peuvent sauvegarder les données dans un format davantage non structuré. En utilisant la puissante du In-Memory pour compenser ce manque de structure, elles disposent de davantage de flexibilité dans leur façon d’accéder à l’information.

Par exemple, si une entreprise utilise des outils In-Memory et décide d’analyser des processus RH en se basant sur de nouvelles données clients, elle n’a pas à restructurer les données pour des nouvelles requêtes. Elle pose simplement ses questions au fur et à mesure.

Pour approfondir sur Big Data et Data lake

Close