shotsstudio - stock.adobe.com

Ces tendances qui façonneront le paysage « Data & IA » en 2026

Les tendances qui influenceront les 12 prochains mois s’inscrivent dans la continuité de celles observées l’année dernière, notamment l’augmentation des fusions et acquisitions et la nécessité de simplifier le développement et le déploiement des agents IA.

En 2025, les acteurs du marché IT ont compris la leçon. Pour dépasser le stade de pilote, les agents IA ont besoin d’un contexte approprié. Les couches sémantiques contribuent à fournir ce contexte, ce qui conduira à une utilisation plus répandue au cours de l’année à venir. Certaines entreprises préparent déjà la mise en production de cette technologie afin d’automatiser des tâches non déterministes, auparavant manuelles. Et à mesure que les entreprises mettront en place des systèmes multiagents, elles auront besoin d’A2A ou d’autres protocoles similaires pour les aider à orchestrer les réseaux d’agents.

« 2025 était l’année de la création des agents », résume Michael Ni, analyste chez Constellation Research. « 2026 sera l’année de la mise en confiance envers eux ».

Parallèlement, les éditeurs spécialisés dans la gestion des données et l’IA pourraient être victimes de l’attention exclusive portée au développement de l’IA agentique. Les apparences tombent : le développement de systèmes agentiques est plus complexe et coûte beaucoup plus cher que la science et l’analyse des données traditionnelles. La consolidation des fournisseurs sera une tendance importante en 2026.

MCP, modélisation sémantique : le contexte est clé

En 2025, le protocole MCP (Model Context Protocol) s’est imposé comme une méthode standard pour connecter les données aux agents IA. Mais cela ne résout qu’une partie du problème. Les agents doivent être connectés aux données qui fournissent le contexte nécessaire à l’exécution de leur tâche.

Un exercice pas si simple qu’il y paraît. Sans une préparation adéquate des données, cela peut s’avérer presque impossible.

En conséquence, la modélisation sémantique a pris de l’ampleur en 2025. Cette tendance devrait fortement s’accentuer en 2026, selon David Menninger, analyste chez ISG Software Research.

« À mesure que l’utilisation de l’IA s’est développée et que l’importance des données pour ces efforts d’IA est devenue plus évidente, il est également devenu évident que l’accès aux données sans modèle sémantique revient à essayer de se rendre à destination sans carte routière », compare-t-il. « Le modèle sémantique est cette carte routière qui mène aux données et à leur signification. Il est tout aussi important que l’accès aux données. »

Les modèles sémantiques sont des outils de gouvernance des données qui permettent aux organisations de normaliser leur approche de la définition et de la catégorisation des données.

Des fournisseurs tels que AtScale, DBT Labs, Looker de Google, Strategy et ThoughtSpot fournissent des couches sémantiques depuis des années. Mais elles étaient optionnelles lorsque les organisations créaient des rapports et des tableaux de bord statiques.

Aujourd’hui, le développement de l’IA rend les modèles sémantiques indispensables, selon Baris Guletkin, vice-président de l’IA chez Snowflake, fournisseur de plateformes de données.

« À mesure que les entreprises mettent en production davantage de projets d’IA, elles se rendent rapidement compte que leurs initiatives en la matière peinent non pas à cause d’un défaut “d’intelligence”, mais parce qu’elles manquent de contexte commercial », déclare-t-il. « C’est ce qui fera passer la modélisation sémantique d’une discipline secondaire à une priorité stratégique en 2026. »

Au-delà de l’information adéquate, les modèles sémantiques fournissent aux agents à l’échelle de l’entreprise une signification et un contexte communs, poursuit Baris Gultekin.

 « Si un agent IA ne comprend pas les définitions commerciales qui sous-tendent les données qui l’alimentent, son raisonnement s’effondre rapidement », argue-t-il. « Les couches sémantiques donnent aux agents la structure et les bases nécessaires pour fournir des réponses fiables, garantissant ainsi la cohérence des résultats de l’IA entre les équipes et les services ».

Cependant, bien que précieuse, la modélisation sémantique doit encore être améliorée avant de devenir aussi omniprésente que MCP, selon David Menninger.

Un groupe de fournisseurs, dont Salesforce et Snowflake, a formé en septembre l’Open Semantic Interchange. Leur objectif : améliorer et normaliser la modélisation sémantique. Mais au-delà du travail du consortium, qui aboutira peut-être à l’adoption d’un standard (ou pas), les éditeurs doivent améliorer leurs couches sémantiques.

« Je constate encore une lacune dans la plupart des modèles sémantiques en matière de métriques », avance David Menninger. « La majorité des modèles sémantiques se limitent à capturer et à exprimer des métriques sous forme de définitions SQL. Le langage SQL n’est pas assez riche pour capturer toute la logique qui entre dans un modèle métier. Malheureusement, je ne vois pas encore beaucoup d’initiatives visant à enrichir les capacités de modélisation sémantique ».

Vers une unification des protocoles agentiques

Si de nombreux agents sont spécifiques à une tâche et fonctionnent de manière isolée, d’autres font partie de systèmes multiagents qui les obligent à communiquer et à collaborer. 

Un cadre qui normalise et simplifie l’interaction entre les agents est avantageux. Et l’adoption de tels cadres devrait être une tendance parmi les fournisseurs de gestion de données et d’IA au cours de l’année à venir.

Développé par Google Cloud et lancé en avril, A2A répond précisément à ce besoin, et des dizaines d’acteurs, dont AWS, Microsoft, Oracle, Databricks et Snowflake, entre autres, prennent en charge ce protocole. De plus, le projet A2A a fusionné avec le protocole de communication des agents d’IBM en septembre 2025.

Cependant, il existe d’autres frameworks. Il reste donc à voir si la prise en charge d’A2A deviendra une tendance aussi importante parmi les fournisseurs de gestion de données et d’IA que l’a été la prise en charge de MCP en 2025.

« A2A a un chemin plus difficile à parcourir », comprend Donald Farmer, fondateur et directeur de TreeHive Strategy. « Le protocole n’est nécessaire que lorsque les organisations exploitent réellement des essaims d’agents qui doivent travailler ensemble. La dynamique viendra. Mais elle suivra la demande des entreprises pour la gestion de plusieurs agents plutôt que l’enthousiasme des fournisseurs pour une nouvelle norme ».

Bien qu’un cadre pour les interactions entre agents soit nécessaire, A2A ne deviendra pas le standard, juge Chris Aberger, vice-président d’Alation, un éditeur spécialisé dans le catalogage de données. Il s’attend à ce que MCP évolue pour intégrer les fonctionnalités d’A2A.

« L’argumentaire en faveur d’A2A est séduisant. La communication entre agents semble être la prochaine frontière, et [A2A] répond à des besoins pour lesquels le MCP n’avait pas été conçu à l’origine. Mais son adoption est stratégiquement en retard », juge-t-il.

A2A, confié par Google à la Linux Foundation, est désormais sous la même ombrelle que l’Agentic AI Foundation, qui rassemble trois frameworks agentiques, dont MCP. La communauté open source anticipe le même mouvement décrit par Chris Aberger.

« MCP ne coexistera pas avec A2A », répète-t-il. « Il absorbera les parties utiles [de l’A2A], car l’écosystème exigera une norme unique, et ce ne sera pas celle qui est arrivée en deuxième position ».

Une nouvelle vague d’automatisation

Du fait de la montée en régime de la contextualisation et de la mise en réseau des agents IA, David Menninger d’ISG anticipe que l’automatisation des tâches de gestion de données, notamment celles les plus complexes, s’intensifie au cours des douze prochains mois.

Par exemple, Monte Carlo, spécialiste de l’observabilité des données, fournit un agent qui surveille les données et met en œuvre des règles pour garantir leur qualité. Les agents Claire d’Informatica gèrent des tâches telles que la supervision de la qualité des données, l’exploration de données et la création de pipelines de données. ThoughtSpot, quant à lui, a récemment dévoilé des agents qui seront disponibles au début de l’année prochaine. Ceux-là automatiseront le développement de tableaux de bord, la création de modèles sémantiques et l’intégration de la BI.

« Au cours des 12 prochains mois, nous assisterons à une automatisation croissante des tâches liées à la gestion des données, qu’il s’agisse de la collecte et du traitement des données, de leur protection ou de leur analyse », prévoit David Menninger. « Nous n’en sommes qu’au début ».

Évidemment, la tendance s’inscrit dans un phénomène existant. Les grands groupes se préparent à lancer des agents prenant en charge des opérations commerciales (support et service à la clientèle), des tâches financières et comptables subalternes (traitement des factures, approbations de paiement), et l’optimisation des chaînes d’approvisionnement.

« En 2026, la mission passera de l’opérationnalisation des données à la consolidation autour de l’orchestration de l’intelligence dans toute l’entreprise, à l’automatisation des décisions dans les flux de travail et à la gouvernance de l’exécution au moment de l’exécution », prévoit Michael Ni de Constellation Research. « Ensemble, ils définissent le passage de la gestion des données à la prise de décision ».

Donald Farmer, quant à lui, subodore que l’automatisation croissante tout au long de l’année 2026 aura pour conséquence secondaire une crise d’identité pour certaines organisations. À mesure que les agents accompliront davantage de tâches auparavant effectuées par des humains, les entreprises devront déterminer comment intégrer efficacement les agents et les humains.

« Je pense que les discussions en 2026 porteront moins sur une nouvelle fonctionnalité unique et davantage sur l’intégration », conçoit M. Farmer. « Où s’arrête l’IA et où commence l’organisation ? Les entreprises aiment dire des choses comme “Nous sommes nos employés” pour affirmer leur identité, leur culture et leur intégrité. En 2026, nos IA pourraient devenir aussi distinctives pour la différenciation de notre entreprise que nos employés ».

La flambée des coûts favorise la consolidation

Au nom de l’IA et de la nécessité de simplifier les pipelines IA complexes, les premiers signes d’une vague de consolidation sont apparus en 2025.

En mai, Informatica, spécialiste indépendant de longue date de l’intégration de données, a été racheté par Salesforce. L’opération a été conclue en novembre. En octobre, le fournisseur d’intégration de données Fivetran et le spécialiste de la transformation de données DBT Labs ont convenu de fusionner. Et début décembre, IBM a racheté le fournisseur de données en streaming Confluent.

Selon Donald Farmer, ce n’est peut-être que le début d’un phénomène qui risque de perdurer au cours de l’année 2026.

Le coût est l’une des raisons de la consolidation. Le développement d’agents et d’autres applications d’IA est plus complexe et prend plus de temps que la création de rapports analytiques et de tableaux de bord. De plus, les outils d’IA nécessitent davantage de puissance de calcul que les produits de données pour être précis et efficaces. Cette combinaison entraîne une augmentation significative des dépenses consacrées aux applications générant des informations.

Pour atténuer une partie de ces surcoûts, les entreprises renoncent aux outils proposés par des spécialistes indépendants et font appel à un fournisseur unique offrant des fonctionnalités préintégrées. Il devient alors plus difficile pour les spécialistes de rivaliser avec les hyperscalers.

Une ode à la simplification…

Une unification vantée par les éditeurs et certains de leurs clients au nom de la simplification.

L’intégration et la maintenance de plateformes spécialisées pour l’ingestion, l’intégration, la modélisation, la recherche vectorielle et le stockage de données, la gouvernance, la découverte et d’autres aspects du développement de l’IA sont difficiles, chronophages et coûteuses.

« Le modèle autour d’Informatica, Confluent et Fivetran/DBT Labs suggère que l’infrastructure de données est prête à être simplifiée », observe Donald Farmer. « Cette tendance est motivée par les stratégies de plateformes axées sur l’IA et la nécessité de rationaliser le paysage encombré des outils d’entreprise. Les équipes informatiques souhaitent réduire le nombre de fournisseurs à gérer et recherchent la consolidation. De plus, elles reconnaissent la nécessité d’intégrer les données ».

Baris Gultekin, de Snowflake, confirme cette tendance. C’est l’un des arguments technico-marketing principaux de l’éditeur au flocon.

« L’époque où l’on utilisait un ensemble disparate de solutions ponctuelles est révolue », vante-t-il. « Les entreprises recherchent désormais des plateformes unifiées qui leur permettent d’avancer plus rapidement, d’éliminer la complexité et de faire fonctionner l’IA sur l’ensemble de leurs données. La consolidation du secteur que nous observons actuellement reflète cette évolution ».

Selon Donald Farmer, les cibles d’acquisition pourraient être les éditeurs de catalogues de données, les spécialistes de l’observabilité des données et de solutions ETL (extraction, transformation et chargement).

« Ces solutions sont liées et souvent vendues aux mêmes acheteurs, elles constituent donc des cibles naturelles pour la consolidation », explique-t-il. « De plus, les fonds d’investissement privés ont historiquement consolidé les middlewares fragmentés. »

… qui risque d’amplifier les phénomènes de dépendances IT

Malgré la consolidation, certains spécialistes peuvent encore rester indépendants, ajoute Donald Farmer.

« Les équipes chargées des données avancées préfèrent toujours les outils spécialisés lorsqu’elles perçoivent une différence claire », rappelle-t-il. « Par conséquent, tous les fournisseurs indépendants ne sont pas des cibles de rachat. » Le PDG d’Alation, Satyen Sangani, souligne que certaines entreprises continuent de privilégier les écosystèmes intégrés de différents éditeurs et craignent la dépendance vis-à-vis d’un seul fournisseur.

« La tendance va se poursuivre. […] [Mais] le contrepoids est la véritable neutralité des fournisseurs : neutralité vis-à-vis du cloud, indépendance vis-à-vis des ressources de calculs, flexibilité des modèles et priorité aux API, afin que les architectures restent portables à mesure que les modèles et les infrastructures évoluent », note-t-il.

En fin de compte, il reste à voir si les entreprises qui privilégient encore les systèmes intégrés de divers acteurs indépendants continueront à le faire, s’interroge Michael Ni. Il remarque que les entreprises accélèrent la mise en œuvre de leurs initiatives en matière d’IA. Ce faisant, la simplification pourrait bientôt l’emporter sur toutes les autres considérations.

« La vague de consolidation n’est pas seulement une prédiction, elle a déjà commencé », prévient l’analyste de Constellation Research. « Les plateformes de données et d’IA arrivent à maturité, ce qui signifie que la confiance, l’observabilité et la gouvernance intégrée l’emportent de plus en plus sur la flexibilité offerte par l’utilisation des meilleurs outils. Dans le même temps, les hyperscalers ont annoncé des capacités de gestion et de pipeline de données qui regroupent plusieurs fonctionnalités, mettant ainsi la pression sur les fournisseurs indépendants ».

Pour approfondir sur IA appliquée, GenAI, IA infusée