Vasily Merkushev - stock.adobe.c
IA agentique : Tableau repositionne (encore) sa plateforme analytique
Ce qui devait être la troisième vague de l’analytique devient chez Tableau une plateforme analytique agentique. Derrière les efforts de son équipe marketing, la filiale de Salesforce poursuit l’intégration des fonctions d’IA agentique au sein de son architecture, quitte à désintermédier les interfaces de conception et de visualisation de données qui ont fait sa réputation.
Lors de sa conférence annuelle à San Diego, Tableau a présenté la « plateforme analytique agentique ».
Conçue comme une couche de connaissances qui fournit automatiquement aux agents et autres outils d’IA les données pertinentes dont ils ont besoin pour fonctionner, l’Agentic Analytics Platform vise à unifier les données propriétaires et leurs métadonnées, ainsi que la logique métier, à travers la modélisation sémantique. L’objectif : les rendre exploitables par des agents IA.
Cette annonce s’inscrit dans la continuité de l’intégration progressive de l’IA au sein des produits phares de Tableau : Cloud, Server et Next. L’initiative avait été présentée il y a deux ans comme la « troisième vague de l’analytique ».
La filiale de Salesforce avait déjà intégré des fonctionnalités de langage naturel avec Tableau Agent et Pulse. D’ici juin 2026, Tableau Agent permettra d’interroger des tableaux de bord. Tout comme des intégrations avec Slack, Teams et Google Workspace entrent en disponibilité générale.
Mais le gros du chantier consiste à faire évoluer sa couche sémantique. Elle sera compatible avec l’Open Semantic Interchange, une spécification imaginée par Snowflake et dbt Labs, Tableau et d’autres pour rendre interopérable les modèles sémantiques. La version 0.1 de la spécification OSI est disponible depuis le mois de janvier 2026. Sa stabilisation nécessitera plusieurs mois, voire plusieurs années. Les porte-parole de Tableau reconnaissent les efforts à mener.
Graphe de connaissances structurées et serveurs MCP
En attendant, Tableau a présenté Auto Knowledge Graph, un moyen de créer un graphe de connaissances analytiques automatiquement à partir du nom des colonnes, des relations entre les données et la manière dont elles se manifestent au sein des tables et des schémas des données de référence. Ces actifs pourront provenir de Tableau, mais aussi de dbt, de Power BI et de Looker. Ces graphes visuels peuvent être ajustés manuellement afin d’affiner les résultats affichés dans les tableaux de bord et les réponses de Tableau Agent. Auto Knowledge Graph entrera en disponibilité générale en juin.
Par ailleurs, des serveurs MCP sont en disponibilité générale pour Tableau Next, Cloud et Server. Ils accèdent, par exemple, à l’API VizQL de Tableau pour appeler des visuels ou bien des métriques Pulse. Les serveurs MCP permettent également à des outils comme Claude Code, d’autres IDE agentiques et les services de type Cowork, Copilot ou ChatGPT d’interroger les données comme le ferait Tableau Agent.
Les mêmes règles de gouvernance qui s’appliquent dans Tableau ou les environnements Salesforce seront appliquées à l’ensemble des agents IA (internes à la plateforme ou non) qui accéderont aux données. Plus tard, à l’automne, Tableau lancera un centre de commandes pour que les administrateurs IT puissent auditer l’activité des agents IA. Ceux-là seront susceptibles d’accéder à des données sensibles à travers les documents et les tableaux de bord de Tableau.
La concurrence en embuscade
La filiale de Salesforce n’est pas la seule à se mettre en tête de combiner agentique et analytique. GoodData, ThoughSpot, Domo ou encore Qlik rendent petit à petit accessibles leurs outils analytiques aux agents IA.
Toutefois, selon William McKnight, fondateur et analyste pour McKnight Consulting, « la plupart des concurrents traitent l’IA comme une fonctionnalité accessible au sein de leur écosystème propriétaire. Vous devez utiliser leur chatbot pour accéder aux données. Tableau emprunte une voie différente en se positionnant comme un service de données d’autorité. Les agents externes peuvent y récupérer des données fiables ».
Des acteurs comme Google Cloud (BigQuery), Databricks et Snowflake ont une approche mixte. D’une part, ils fournissent des agents IA (à travers Snowflake Intelligence ou Databricks Genie par exemple) pour interroger les données au sein de leur système et générer des visualisations. D’autre part, ils ouvrent l’accès aux données au sein de leur plateforme respective à travers des serveurs MCP. Mais ils cherchent également à désintermédier des acteurs comme Tableau en décalant d’un cran la couche sémantique, au niveau de l’entrepôt de données ou du lakehouse. « Les anciens outils de BI et modes de reporting sont déjà démodés. Nous vivons une révolution de la BI », jugeait Anthony Cirot, vice-président EMEA sud et dirigeant par intérim de GCP France, lors de Google Cloud Next 26, à la fin du mois d’avril.
Selon Matt Aslett, analyste chez ISG, « Tableau maintient sa position de leader, même si les concurrents sont en train d’ajouter des fonctionnalités d’IA et agentiques ».
Le front-end de la BI voué à la désintermédiation
Tableau, Qlik, GCP, Databricks et Snowflake ont malgré tout le même objectif : rendre les indicateurs clés de performance actionnables. Au-delà des alertes et de petites automatisations déjà en place, il s’agit d’enclencher des flux agentiques avancés. Pour l’instant, l’on se limite à l’envoi d’alerte et la recommandation d’actions.
Selon William McKnight, comme la plupart de ses adversaires, Tableau doit « y intégrer les données non structurées et afficher une vision des flux multiagents qui se chevaucheront ».
Tableau a pour lui sa large base installée, mais il devra passer d’un modèle où sa plateforme était le front-end de l’analytique à un autre où elle sera potentiellement une couche intermédiaire qui lie des environnements de données disparates. Un revirement qu’il faudra accompagner « au risque d’un pivot trop brutal » pour les usagers historiques, remarque-t-il.
Si les entreprises prennent ce chemin, ce questionnement risque de s’imposer à tous les pôles BI. Soit les data analysts devront se former pour devenir des « citizen data engineer », capable de gérer plus finement les données avant leur analyse. Soit ce travail sera confié aux ingénieurs de données eux-mêmes et ce sont les métiers qui deviendront des citizen data analysts. Dans les deux cas (et tous les scénarios intermédiaires), l’IA agentique promet de s’imposer.
Les citations des analystes sont issues d’un article publié par Eric Avidon sur SearchBusinessAnalytics.
