alphaspirit - stock.adobe.com
BI, ingénierie de données : Qlik mise sur la spécialisation de ses agents IA
S’il est de plus en plus menacé par les offres des fournisseurs cloud et Databricks ou Snowflake, Qlik estime avoir quelques cordes à son arc. Il spécialise ses agents IA dans l’ingénierie, la mise en qualité des données et la gouvernance.
Dans le cadre de son événement Qlik Connect 2026, le spécialiste de la BI et de l’intégration a multiplié les annonces, en prolongeant les solutions en disponibilité générale depuis le mois de février et de mars. Elles matérialisent une vision qui, en mai 2025, n’était pas encore totalement limpide.
BI en langage naturel : Qlik rattrape son retard sur Snowflake Intelligence et Databricks Genie
Il avait ainsi mis à disposition l’interface conversationnelle Qlik Answers. Elle est désormais activée par plus de 1000 clients selon Mike Capone, CEO de Qlik. L’agent IA de découverte de signaux Discovery Agent (à la manière de Tableau Pulse) est accessible et des serveurs MCP sont déclinés par ligne métier.
Qlik Answers a déjà bénéficié d’une mise à jour au mois d’avril. Techniquement, cet agent orchestrateur confie désormais des tâches au Data Analyst Agent pour lancer les recherches sémantiques et la génération de diagrammes. Auparavant, Answers se chargeait de comprendre l’intention de l’usager, puis confiait les tâches à trois autres agents. La réduction des intermédiaires permet d’obtenir des réponses plus rapidement.
Deux autres agents ont été annoncés lors de l’événement se déroulant en Floride : Predict Agent et Automate Agent. Ils seront mis à disposition des clients plus tard cette année.
Qlik Predict a le droit à une expérience agentique
Predict Agent doit « concevoir des modèles de machine learning, générer les prédictions et les résultats ». De ce que comprend LeMagIT, Qlik enrobe ses capacités d’AutoML existantes (Qlik Predict) dans une expérience agentique. Depuis près de huit ans, Qlik dispose de capacités pour mettre en compétition des algorithmes de statistiques avancées à partir d’un objectif de prévision. Désormais, l’agent interprétera l’intention du data analyst, appellera les fonctions d’AutoML, récupérera les résultats et les analysera pour les métiers. Puisque l’agent (propulsé par un moteur purement probabiliste) n’est pas réellement impliqué dans la production des résultats, la solution devrait offrir des résultats fiables. En tout cas autant que l’étaient ceux obtenus avec AutoML.
Automate Agent, lui, reprendra les bases des flux d’actions déjà disponibles depuis la plateforme Qlik Cloud. Il s’agira d’automatiser certaines tâches à partir des seuils fixés au sein des indicateurs. Au lieu d’une interface low-code/no-code, le tout se fera en langage naturel.
Dans ces différents domaines, Qlik estime devoir proposer des réponses aux solutions développées par Google, Snowflake ou encore Databricks. Qlik les présente comme des partenaires, mais ils s’avèrent un brin envahissant.
À l’instar de Tableau, Power BI et de (Micro)Strategy, Qlik est du mauvais côté de la barrière. Les acteurs cités plus haut cherchent non seulement à descendre d’un cran la couche sémantique – c’est-à-dire la rapprocher de l’entrepôt ou du lac de données ACID – mais aussi à prendre des parts de marché aux acteurs traditionnels de l’intégration de données.
Des agents IA dédiés à l’ingénierie et à la qualité de données
Comme chez Databricks, Snowflake et GCP, chez Qlik, il y a aura un modèle sémantique et un Data Pipeline agent. Il devra accélérer la création des pipelines de données à plusieurs étapes. Il sera déployé à travers OpenLakehouse et Talent Studio.
Toutefois, l’éditeur américain d’origine suédoise a davantage d’expérience en matière de mise en qualité et de gouvernance de données. Et cela se reflète dans sa feuille de route agentique. Qlik fournira également un Data Quality Agent basé sur l’ex Talend Trust Score, un Data Catalog Agent et un Data Glossary Agent. Ils seront respectivement chargés du nettoyage des données, de la documentation des actifs de données et de la consistance des ontologies métiers.
Par ailleurs, un Data Product Agent devra automatiser la création et la gestion de produits de données, sous la responsabilité des métiers désignés comme propriétaire des données (Data Mesh oblige). Là encore, le Trust Score, obtenu à l’aide d’un traitement statistique, aura son importance.
Autant de points où Qlik peut se distinguer, considèrent les analystes interrogés par SearchBusinessAnalytics, une publication sœur du MagIT. Michael Ni, de Constellation Research, et David Menninger d’ISG estiment que la compréhension des sujets d’analytique, d’ingénierie de données et les agents IA préconfigurés annoncés lors de l’événement permettent à Qlik de « se placer dans le haut du panier ».
Évidemment, ces outils devront faire leurs preuves en production. Le lancement des agents Data Catalog, Data Glossary, et Data Products est prévu au cours du deuxième trimestre 2026.
Ce n’est pas tout. Pour permettre aux entreprises d’utiliser GitHub Copilot, Claude Code et les autres IDE agentiques, Qlik dit développer des pipelines déclaratifs, comme l’a déjà fait Databricks. Cette technologie « définit la logique de notre pipeline de données comme un contrat stable et une spécification pour générer, restructurer et étendre les pipelines », affirme Matthew Hayes, directeur général Data Business Unit chez Qlik, dans un billet de blog. Là aussi, la disponibilité est promise au cours du deuxième trimestre.
Après cela, au troisième trimestre 2026, Qlik prévoit de lancer son assistant IA pour l’IDE de Talend Studio, une fonction déjà disponible chez les concurrents. Talend Studio devra aussi router en temps réel les messages (et donc le contexte) entre les agents IA, afin d’actualiser plus rapidement les systèmes RAG ou pour les rendre disponibles à travers des serveurs MCP.
Il faudra toutefois se dépêcher. Les concurrents accélèrent la livraison de solutions. Les clients les plus avancés les testent de plus en plus rapidement.
Les données quasi-temps réel arrivent dans Open Lakehouse
L’autre priorité c’est le traitement des données en quasi-temps réel. D’abord pour unifier les données événements, les traitements en batch et les flux CDC (Change Data Capture) – dans un impératif de simplification. Qlik traitait auparavant ces charges de travail à l’aide de solutions séparées. L’offre Open Lakehouse représente cette unification. En mars, en sus des traitements en lot et des mises à jour de type CDC, l’éditeur y a ajouté en disponibilité générale l’ingestion des données de streaming.
Plus particulièrement, il s’agit d’enrober les données au format JSON, Avro, Parquet, CSV, ORC en provenance de buckets S3, des topics Kafka et du service Kinesis au format Apache Iceberg pour les rendre accessibles par les plateformes telles que Databricks, Starburst et Microsoft Fabric. L’évolution des schémas est gérée automatiquement, promet Qlik. Il affirme également couvrir les usages liés à l’IoT et à la gestion de la télémétrie IT.
Là, Qlik mise sur son agnosticisme pour se distinguer de Databricks Lakeflow, Snowflake Openflow ou encore Azure Data Factory. D’autres acteurs cherchent à se rendre visibles. Fivetran avec DBT Labs et Confluent chez IBM sont dans les starting-blocks.
