Snowflake : la stratégie du « tout-en-un » fonctionne

Snowflake affiche désormais un large portfolio de fonctionnalités. Même si tout ce qu’il entend proposer n’est pas disponible, la « vision » convainc déjà les partenaires et les clients existants.

Lors de sa confĂ©rence annuelle Ă  San Francisco, l’éditeur a fortement mis l’accent sur l’IA gĂ©nĂ©rative. Dans un mĂŞme temps, le projet n’a pas changĂ©. Depuis quelques annĂ©es, BenoĂ®t Dageville, cofondateur et prĂ©sident du produit chez Snowflake, insiste sur le fait que la sociĂ©tĂ© fournit plus qu’un data warehouse, plus qu’un lakehouse, plus qu’une PaaS et donc un cloud. Non plus un « Data cloud Â», mais un « Data AI Cloud Â», ajoutent les communicants.

S’il a enchaîné les annonces pendant deux jours, ce n’est que le troisième jour que l’éditeur a présenté une vue d’ensemble de son portfolio.

DonnĂ©es structurĂ©es et non structurĂ©es, prise en charge de quatre langages de programmation, disponibilitĂ© d’instances CPU et GPU, couche de gouvernance, ingestions, transformations, analytiques, machine learning, IA gĂ©nĂ©rative, partage de donnĂ©es et d’applications, outils pour gĂ©rer le tout en sus « d’expĂ©riences IA Â», et ce Ă  travers plusieurs clouds… Sur le papier, Snowflake a tout ce qu’il faut.

Infographie des fonctionnalités de la plateforme Snowflake
L'infographie représente l'ensemble des fonctionnalités et composants de la plateforme Snowflake, mais ne précise pas qu'une bonne partie d'entre eux sont en disponibilité limité.

Sur le papier seulement. Dans les faits, encore beaucoup des fonctions annoncĂ©es il y a moins de deux ans sont en prĂ©version publique et privĂ©e. Snowflake a misĂ© pendant des annĂ©es sur ses « fondations Â», des fondations qu’il continue d’étayer. Il a entamĂ© la prise en charge du machine learning, du deep learning il y a deux ans. En revanche, l’arrivĂ©e de Shridar Ramaswamy Ă  la tĂŞte de l’entreprise a sĂ»rement permis d’accĂ©lĂ©rer la part de sa feuille de route consacrĂ©e Ă  l’IA gĂ©nĂ©rative et de proposer de premiers composants en disponibilitĂ© gĂ©nĂ©rale, Ă  peine un an après le rachat de sa compagnie Neeva.

IA : Snowflake doit encore faire ses preuves

Les interlocuteurs du MagIT observent, sans surprise, que c’est un sujet populaire. « L’engouement et l’intĂ©rĂŞt pour l’adoption de l’IA gĂ©nĂ©rative ont accru l’intĂ©rĂŞt pour l’IA de manière gĂ©nĂ©rale. Il s’agit presque d’une renaissance Â», juge Jennifer Belissent, principal Data Strategist, chez Snowflake.

« Le portefeuille IA de Snowflake est nouveau Â».
Jennifer BelissentPrincipal Data Strategist, Snowflake

Cela ne veut pas dire que Snowflake et les clients sont prĂŞts. « Le portefeuille IA de Snowflake est nouveau Â», admet l’ancienne analyste chez Forrester. « Il n’y a pas encore grande chose en disponibilitĂ© gĂ©nĂ©rale aujourd’hui. Nous continuons donc Ă  travailler en Ă©troite collaboration avec un petit groupe de clients qui peuvent tester les produits et nous assurer que nous lançons les meilleures solutions possibles Â», ajoute-t-elle.

Des expĂ©rimentations qui demandent Ă©galement le concours des partenaires, rappelle Élise Delsol, directrice des partenariats de la rĂ©gion France chez Snowflake.

« Je rappelle que chez Snowflake, nous n’avons pas d’équipes de customer success [un choix dĂ©libĂ©rĂ©, N.D.L.R.], donc le succès de nos clients, il passe aussi par la capacitĂ© de nos partenaires Ă  pouvoir montrer ces nouveaux usages pour les clients existants et convaincre ceux qui ont besoin de mettre dans la main des utilisateurs des outils performants, leur permettant d’obtenir des indicateurs Â».

En parallèle, il faut pouvoir amĂ©liorer l’accès aux donnĂ©es et leur qualitĂ©. « Je ne veux pas dire que les clients ne se souciaient pas de la qualitĂ© de donnĂ©es par le passĂ©. Cependant, avec les rĂ©glementations en la matière et en matière d’IA, je pense que les gens vont y prĂŞter beaucoup plus attention Â», considère Jennifer Belissent. « Investir dans la qualitĂ© des donnĂ©es est ennuyeux, mais c’est selon moi l’une des choses les plus importantes que nous puissions faire maintenant, parce que nous allons dĂ©pendre de plus en plus de l’IA Â».

Des prérequis pour bien partager les données et les applications

C’est aussi l’un des Ă©lĂ©ments cruciaux dans ce qui fait une partie du succès de Snowflake auprès de ses clients les plus matures : le partage de donnĂ©es. « Historiquement, la stratĂ©gie de donnĂ©es des entreprises a Ă©tĂ© centrĂ©e sur la gouvernance et la sĂ©curitĂ©, mais j’estime que cette notion de partage en interne et Ă  l’externe est cruciale Â», insiste-t-elle.

Fonctionnellement, Snowflake a fait en sorte le partage des donnĂ©es possible Ă  partir d’un lien URL. Sur sa marketplace, il commence Ă  accueillir les premières « Native Apps Â», qui, selon BenoĂ®t Dageville, « rassemblent des donnĂ©es et du code Â». MalgrĂ© les premiers cas d’usage, cela reste encore un Ă©lĂ©ment de la « vision Â» de l’éditeur.

Jennifer Belissent estime toutefois que cela pourrait devenir une nouvelle source de revenus pour des clients prĂŞts Ă  commercialiser sur cette plateforme des applications et des algorithmes. La possibilitĂ© de se procurer des modèles et des applications verticalisĂ©es sur Ă©tagère intĂ©resse Sophie Gallay, directrice donnĂ©es et IT client chez le groupe Etam. « Nous n’avons pas encore eu le temps d’évaluer ce qui est disponible sur la marketplace, mais dans notre domaine d’activitĂ©, la distribution, je pense qu’il y a un bon nombre de processus standards qui peuvent ĂŞtre gĂ©rĂ©s avec des solutions sur Ă©tagère Â».

« Il faut bien deux Ă  trois ans pour instaurer le libre-service auprès des utilisateurs. Le Data Mesh, cela ne se fait pas en trois mois Â».
Laurent LetourmyHead of Data, Devoteam

Selon, Laurent Letourmy, head of Data chez Devoteam, un partenaire intĂ©grateur de Snowflake en France, ces notions de self-service en interne ou externe et d’approche Data Mesh nĂ©cessitent pour les clients de revoir leur manière de conduire des projets de donnĂ©es. « Il faut bien deux Ă  trois ans pour instaurer le libre-service auprès des utilisateurs. Le Data Mesh, cela ne se fait pas en trois mois Â», prĂ©vient-il.

« J’explique Ă  nos clients qu’il est dangereux de reproduire les pratiques de gestion de donnĂ©es d’hier, de recrĂ©er des monolithes dans le cloud. Quand l’on adopte des domaines de donnĂ©es, quand l’on arrĂŞte des modèles Ă  trois couches – au passage, les notions de bronze, silver, gold ne sont autres que l’ODS, le data warehouse et le data mart â€“, quand l’on versionne ces domaines de donnĂ©es et que l’on a des approches distribuĂ©es Ă  l’instar de la gestion d’API, lĂ  on devient agile Ă  l’échelle Â», assure Laurent Latourmy. « Le cloud et Snowflake le permettent Â».

Pour le moment, ces migrations ont gĂ©nĂ©ralement lieu sur un seul cloud. « Dans un premier temps, les clients investissent majoritairement sur un cloud parce qu’ils ont besoin de migrer leur SI et d’opĂ©rer une transformation numĂ©rique Â», note-t-il. « Mais il est Ă©vident que l’architecture de donnĂ©es de demain ne dĂ©pendra pas d’un seul cloud Â», poursuit le responsable. « Celui [l’éditeur de plateforme de donnĂ©es] qui gagnera, c’est celui qui sera multicloud par dĂ©finition, qui n’enfermera pas ses clients et qui offrira une vĂ©ritable interopĂ©rabilitĂ© Â».

Une présence multicloud à renforcer

Ici, Laurent Latourmy fait rĂ©fĂ©rence au dĂ©ploiement de Snowflake sur les infrastructures des trois gĂ©ants du cloud et Ă  la prise en charge du format de tables Apache Iceberg en disponibilitĂ© gĂ©nĂ©rale.

Or cette couverture n’est pas proportionnelle entre les hyperscalers. Actuellement, plus de 75 % des clients de Snowflake, Ă  savoir plus de 7 500 sur 9 800 ont des instances sur AWS. Le reste est partagĂ© entre Microsoft Azure, deux, et Google Cloud, trois.

« CrĂ©er une nouvelle rĂ©gion nous rĂ©clame beaucoup d’investissements. Nous avons dĂ©marrĂ© avec AWS, mais c’est beaucoup liĂ© Ă  la demande. Ce n’est pas uniforme dans toutes les rĂ©gions Â».
Benoît DagevilleCofondateur et directeur du produit, Snowflake

« CrĂ©er une nouvelle rĂ©gion nous rĂ©clame beaucoup d’investissements. Nous avons dĂ©marrĂ© avec AWS, mais c’est beaucoup liĂ© Ă  la demande. Ce n’est pas uniforme dans toutes les rĂ©gions Â», indique BenoĂ®t Dageville lors d’un point avec la presse française. « En Europe, nous avons beaucoup de demandes pour Azure. Les relations avec Google sont un peu plus compliquĂ©es Â», lâche-t-il. « Peut-ĂŞtre Â» parce que BigQuery est un produit d’appel pour Google Cloud et parce que la manière dont GCP opère serait « un peu moins ouverte Â» que ses concurrents, prĂ©sume le cofondateur de Snowflake.

La prĂ©fĂ©rence historique de Snowflake et sa perception par les fournisseurs cloud – qui, pour rappel, tente de reproduire des Ă©cosystèmes Ă  la Snowflake ou Ă  la Databricks â€“ a forcĂ©ment des consĂ©quences sur la disponibilitĂ© des fonctionnalitĂ©s. « Nous sommes sur les trois clouds, mais toutes les fonctions ne sont pas disponibles sur tous les clouds ou dans toutes les rĂ©gions Ă  l’heure actuelle Â», signale Jennifer Belissent.

Reste que les clients de Snowflake, dont Etam, Eutelsat ou encore Harnois Énergies, rejoignent l’avis de Laurent Latourmy de Devoteam : le « data cloud Â» a dĂ©jĂ  fait ses preuves et continue de susciter leur intĂ©rĂŞt.

Pour approfondir sur Big Data et Data lake