Intégration de données : quatre tendances émergentes à évaluer

Selon Forrester, pour accroître leurs performances en matière d’intégration des données, les entreprises doivent évaluer ces quatre technologies d’intégration de données.

L’intégration de données aide de plus en plus les entreprises à conquérir, à servir et conserver leurs clients.

Les organisations sont confrontées à des défis croissants en matière d’intégration des données. Ceux-ci sont essentiellement liés au volume grandissant desdites données, à une pression liée à la conformité, au besoin d’informations en temps réel, à une complexité accrue des informations, et à leur distribution à l’échelle de clouds multiples et hybrides. Les utilisateurs métier veulent un accès rapide à des indicateurs fiables en temps réel, accès qui leur permettra de prendre des décisions plus avisées.

Pour prendre en charge ces nouvelles exigences en matière d’analytique et de traitements de données, une stratégie d’intégration moderne est essentielle. Il s’agit notamment de soutenir des applications offrant une vue client à 360 degrés en temps réel, des solutions d’intelligence des données ou encore des applications edge.

Les responsables de l’architecture d’entreprise, de l’architecture technique et de la livraison des projets doivent chercher à tirer parti de nouvelles approches d’intégration, dont la virtualisation, le maillage de données ou des capacités d’intégration de données propulsées à l’IA.

Les technologies d’intégration modernes se focalisent sur l’automatisation avancée, l’intelligence des données connectées et les outils en libre-service ciblant des rôles spécifiques. Elles aident les organisations à accélérer les différents cas d’usage et d’autres exigences liées à l’intégration des données.

Le cabinet Forrester prévoit que l’adoption de systèmes d’intégration des données avancés va proliférer dans les années à venir.

La distribution des données dans des environnements multicloud et hybrides engendre de nouveaux défis d’intégration. Les données sont partout. Les centraliser dans des lacs ou des hubs dans le cadre de projets BI ne revêt plus aucun aspect pratique, tout particulièrement avec l’explosion des données en périphérie. Le cabinet Forrester prévoit que l’adoption de systèmes d’intégration des données avancés va proliférer dans les années à venir, à mesure que les organisations rechercheront une prise en charge des indicateurs décisionnels à l’échelle d’environnements multicloud, hybrides et Edge.

L’intelligence artificielle (IA) propulsera les prochaines capacités des outils d’intégration de données. Les modèles de machine learning aideront les entreprises à automatiser l’ingestion, la classification, le traitement, la sécurisation et la transformation des données.

Si ces fonctionnalités sont encore émergentes, les équipes IT peuvent d’ores et déjà en tirer parti. Des modèles de machine learning sont déjà mis à contribution pour explorer, classifier, catégoriser, dédoublonner et « désiloter » les données.

En soutien aux exigences modernes, l’intégration des données en (quasi) temps réel est devenue incontournable. À mesure que le rythme de l’activité s’accélère, l’obtention d’indicateurs en temps réel devient essentielle. Cela exige de l’entreprise qu’elle s’oriente vers des plateformes capables de traiter rapidement des indicateurs décisionnels.

Les entreprises citent souvent la prise en charge de données en temps réel ou quasi-temps réel comme une exigence prépondérante de l’intégration des données, essentiellement pour améliorer l’expérience client de leurs applications.

Cette exigence d’instantanéité pousse les organisations à adopter des solutions d’intégration spécifiques à certains cas d’usage. Cette catégorie de solutions apporte une intégration de bout en bout, optimisée et exhaustive, en automatisant le processus d’ingestion, d’intégration, de sécurité et de transformation pour des cas d’usage métier tels que la vision à 360 degrés et l’Internet des objets (IoT).

Dans ce contexte, le cabinet Forrester a identifié quatre technologies émergentes à surveiller : les services de Data-as-a-Service (DaaS), le Data Mesh, les graphes de connaissances (Knowledge Graph) et les accélérateurs de requêtes. Leur valeur métier et leur maturité sont encore faibles. La majorité des entreprises doivent se limiter à l’expérimentation de ces technologies, en attendant qu’elles évoluent pour répondre pleinement à leurs enjeux.

1. Data as a Service (DaaS)

Les données à la demande (DaaS, Data as a Service) – également appelées données en tant que produit (DaaP, Data as a Product) – fournissent une couche commune d’accès aux données via des interfaces de programmation d’applications (API), une technologie SQL, ODBC/JDBC ou d’autres protocoles. Les solutions DaaS peuvent être mises sur pied à l’aide de plateformes de virtualisation de données, de Data Mesh ou de plateformes d’intégration à la demande (Integration Platform as a Service – iPaaS).

Ces approches font partie de la nouvelle génération de technologie d’intégration avancée des données. Celle-ci se focalise sur une couche d’accès commune aux données en vue d’accélérer les différents cas d’usage.

Les produits DaaS/DaaP apportent une couche d’accès aux données qui prend en charge l’accès, l’interrogation des données ainsi que des applications intégrées.

Cette couche confère plusieurs avantages métier, notamment la prise en charge d’une vue commune des données client et métier, au moyen de protocoles standard.

Selon Forrester, la technologie DaaS/DaaP fera l’objet d’une croissance continue dans les années à venir, à mesure que la demande en données certifiées accessibles en temps réel s’intensifie dans l’ensemble des domaines applicatifs. Nous observerons sans doute des innovations supplémentaires en matière d’actualisation en temps réel, d’intégration et d’accès en libre-service.

2. Maillage de données – Data Mesh

Un Data Mesh (maillage de données) permet d’optimiser des workloads mixtes en associant moteurs de traitement et flux de données aux cas d’usage adéquats. Cette technologie s’interface avec une architecture orientée événements, calibrée pour les cas d’usage en périphérie. Ce maillage des données repose sur une couche de communication entre les applications, les machines et les individus. Il associe données, requêtes et modèles à la solution, afin que chaque partie – humains et machines – reste synchronisée et parle le même langage.

Cela permet aux développeurs, ingénieurs et architectes des données de devenir plus productifs et d’accélérer différents cas d’usage.

Cette technologie en est encore à ses balbutiements. Un Data Mesh tire parti d’un maillage de services dédié aux données, d’un modèle publication/abonnement (« pub/sub »), et d’une architecture cloud native capable de supporter le stockage local. À long terme, nous devrions voir émerger des plateformes consacrées uniquement au maillage de données.

3. Knowledge Graph – Graphe de connaissances

Un graphe des connaissances recourt à des moteurs orientés graphes pour prendre en charge une intégration et des connexions de données complexes. Il permet de concevoir des moteurs de recommandation, purger des données, exécuter une analyse prédictive et connecter rapidement des données. Développeurs, ingénieurs et architectes des données pourront ainsi rapidement exploiter des informations en désordre et dépourvues d’association, pour accélérer le développement des applications et l’obtention de nouveaux indicateurs métier.

Cette technologie tire parti d’un modèle de données orienté graphes pour stocker, traiter et intégrer des données connectées, et ainsi ériger une base de connaissances qui vise à répondre à des questions complexes et à obtenir des éclairages selon un mode moderne. Un Knowledge Graph accélère l’analytique et l’obtention d’informations exploitables ; autant d’éléments qui, à l’instar des applications, ont besoin des données connectées. Il améliore en outre la productivité des développeurs, des architectes, et des ingénieurs et analystes des données.

En tant que technologie d’intégration des données, les graphes de connaissances poursuivent leur évolution. Ils incluent désormais des capacités d’automatisation, de machine learning intégrés, et de libre-service. Un knowledge graph exploite des modèles graphes, des catalogues de données et des ontologies propres à un domaine, afin de mettre à disposition une base de connaissances.

4. Les accélérateurs de requêtes

Le marché des accélérateurs de requêtes a fait son chemin pour aider les développeurs et les ingénieurs des données à optimiser rapidement les requêtes et à réduire la distance entre les ressources de calcul et les données. Cette technologie se révèle utile lorsque vos données sont stockées dans des lacs, des entrepôts complexes ou encore des magasins d’objets, dans lesquels l’optimisation des requêtes est rarement chose facile.

Contrairement aux systèmes de virtualisation des données, ces accélérateurs utilisent un optimiseur amélioré pour accroître la vitesse des requêtes. Ils rapprochent ainsi la ressource de traitement des données et récupèrent uniquement celles sélectionnées à partir de sources telles que des bases de données distribuées, des datawarehouses, ou encore des systèmes de stockage objet.

Grâce à un accélérateur de requêtes, l’entreprise lance des analytiques et des recherches de données plus rapidement, via une requête simplifiée que pourront exécuter un analyste ou un utilisateur métier, ou encore un service IT.

Selon Forrester, cette technologie va encore évoluer au cours des années à venir. Ces accélérateurs seront enrichis par des modèles de machine learning pour optimiser la vitesse des requêtes et leur pertinence. Ils bénéficieront des performances supérieures en réclamant moins de ressources de calcul et s’intégreront plus aisément dans des environnements distribués.

Extrait et adapté de The Forrester tech tide : Enterprise data integration, Q4 2021. Noel Yuhanna est analyste en chef et vice-président de Forrester.

Pour approfondir sur Datawarehouse

Close