blackzheep - stock.adobe.com
Snowflake Intelligence : le glas de la BI à papa ?
Avec Snowflake Intelligence, l’éditeur entend fournir une interface unifiée permettant aux métiers d’accéder plus simplement aux données de l’entreprise. Ce qui induit une révision en profondeur des processus BI.
Lors de sa conférence Build, Snowflake a non seulement annoncé un partenariat avec SAP, mais a également présenté un lot de fonctionnalités en disponibilité générale.
À commencer par Snowflake Intelligence, sur Microsoft Azure US, AWS US et AWS EU. Cette interface doit permettre de remonter les résultats de différents agents IA « connectés à une ou plusieurs vues sémantiques, des modèles sémantiques, des services Cortex (AISQL, Analyst, Search) et des outils ».
Si les régions américaines offrent davantage d’options, en Europe, Snowflake s’appuie sur Claude 4 et les différentes briques citées plus haut pour créer des visualisations et répondre à des questions sur les données.
En octobre, Benoît Dageville, cofondateur et vice-président du produit chez Snowflake, expliquait qu’un système de ce type pourrait remplacer, à terme, la BI traditionnelle. Non pas que les tableaux de bord disparaîtront, mais les métiers et les directions ne réclameront plus systématiquement aux data analysts de créer des tableaux de bord personnalisés. Ils le feront par leur propre moyen. « Je pense que c’est le début de la fin de la BI telle qu’on la connaît aujourd’hui », affirmait-il. « Le nom pourrait rester, mais ce sera très différent ».
Snowflake Intelligence ou le « shift left » de la BI
Comme à la manière du « shift left » en matière de sécurité du code, cela déplace le problème. Cela ne veut pas dire que les données sont prêtes pour être interrogées directement depuis Snowflake Intelligence.
D’où la disponibilité générale des vues sémantiques (considérés comme des métadonnées), des agents Cortex et du serveur MCP managé de Snowflake.
Les ingénieurs de données et les data analysts doivent préparer les données permettant de créer aisément des diagrammes (Bar Chart, Line Chart, Pie Chart).
Ainsi, il faut cartographier dans les vues sémantiques les entités métiers représentées dans les données stockées, leurs liens, les métriques importantes, les dimensions d’analyse. Il convient également de répertorier les tables correspondantes, la nature de leur relation ou de leur jonction. Bref, créer un modèle de données et anticiper les questions qui pourront être posées par les métiers.
Les vues sémantiques sont considérées comme des « objets au niveau du schéma qui stockent l’ensemble des informations du modèle sémantique au sein de la base de données ».
Deux outils sont disponibles pour créer ces vues sémantiques : soit à l’aide de commandes SQL ou d’un wizard dans Snowsight. Les spécifications des vues sémantiques peuvent être enregistrées dans des fichiers YAML.
Ces vues sont interrogées avec des commandes SQL et l’API REST de Cortex Analyst.
Cette délégation de la création des visualisations aux agents IA ne résout pas tout. Il faut s’assurer que les résultats sont cohérents. Snowflake Intelligence permet d’afficher la requête utilisée par Cortex Analyst, mais aussi les requêtes vérifiées, préenregistrées au sein du modèle sémantique associé. C’est le fameux fichier YAML évoqué plus haut qui est utilisé par le LLM.
Cortex Search permet, en théorie, d’y combiner des données non structurées ici des PDF et des documents de l’entreprise.
Par ailleurs, les administrateurs Snowflake doivent configurer Intelligence en reliant les briques évoquées plus haut.
Snowflake inclut dans sa boîte à outils Trulens, un framework open source d’évaluation des agents IA. Il est conseillé de tester les réponses fournies depuis Snowflake Intelligence.
Cela permettrait d’expliquer les résultats aux responsables du développement des agents IA.
« Nous exposons un grand nombre de ces métriques aux “builders” afin qu’ils puissent comprendre certains de ces scores », déclare Jeff Hollan, directeur produit, agents IA Cortex et applications chez Snowflake. « Pour l’utilisateur final, aujourd’hui, nous n’exposons que le bouclier vert qui indique si cette information provient d’une source vérifiée ou non », poursuit-il. « Nous sommes toujours en train de faire des recherches pour savoir s’il y a d’autres indicateurs pertinents à afficher ».
AI Redact, une autre fonctionnalité en développement devrait permettre, à l’inverse, de ne pas exposer des données sensibles à travers Cortex AISQL.
En outre, 80 partenaires sont présents au lancement de Snowflake Intelligence pour enrichir les capacités de base de cette interface, dont Qlik, Thoughspot, Confluent, dbt Labs, Informatica, Capgemini, Deloitte ou encore Dataiku.
Pas de magie ici, donc. Le service semble pour autant avoir bénéficié d’un fort engouement lors de la phase de préversion publique. « À ce jour, plus de 500 000 questions ont déjà été posées et ont obtenu des réponses, dans le cadre de Snowflake Intelligence, et plus de 15 000 agents IA ont été déployés », affirme Jeff Hollan. Cisco et Toyota Motor Europe font partie des premiers usagers. Selon Benoît Dageville, certains CEO ayant testé la fonctionnalité ne jureraient plus que par celle-ci pour « poser des questions aux données de l’entreprise ».
L’IA pourrait bouleverser les codes de la BI (ou pas)
Pour mémoire, Snowflake n’est pas le premier ni le seul à proposer une interface IA unifiée en direction des métiers. Son concurrent Databricks a lancé la tendance avec AI/BI, service dont il poursuit l’amélioration. Qlik, Informatica, Tableau (Salesforce) et d’autres tendent vers le même système.
« D’autres fournisseurs de bases de données proposent des fonctionnalités similaires pour démocratiser l’accès aux données », confirme Matt Aslett, analyste chez ISG, auprès de SearchDataManagement, une publication sœur du MagIT. « Mais il reste à voir dans quelle mesure les entreprises seront à l’aise avec le concept de permettre aux employés et aux agents d’interroger directement leur base de données analytique ».
Au-delà du changement organisationnel que cela représente, Matt Aslett insinue que cela pose à la fois des problèmes de sécurité (de gestion des contenus plus que des accès, Intelligence étant intégré au RBAC de Snowflake) et de coûts. De fait, suivant sa nature, un dashboard peut être rafraîchi de manière quotidienne, hebdomadaire ou toutes les quelques minutes.
Qui plus est, cela représente une forme de retour en arrière pour certaines organisations. Elles se sont évertuées, depuis plusieurs années, à maîtriser la prolifération des tableaux de bord et à s’assurer que l’ensemble des entités accèdent aux mêmes informations. Devront-elles refaire ce qu’elles ont déjà construit sur Snowflake pour conserver cette maîtrise ?
