jules - Fotolia
BigQuery : Google Cloud revoit son modèle économique
Outre des ajouts pour sécuriser le traitement de données partagées et faciliter l’inférence des modèles de machine learning sur BigQuery, Google Cloud annonce une révision de la politique tarifaire du data warehouse cloud. Les options seraient plus flexibles et granulaires, mais cela entraîne une augmentation de 25 % des tarifs analytiques à la demande.
Google a dévoilé mercredi les « data cleans rooms » (les salles blanches consacrées aux données, en VF) de BigQuery dans le but d’aider les entreprises à améliorer leurs efforts de marketing en toute sécurité.
Avec cette fonctionnalité, les utilisateurs pourront combiner leurs propres données marketing avec des données tierces via la place de marché de données de Google Cloud. Cela permettrait de développer une compréhension plus complète et plus approfondie de la manière de cibler les clients potentiels, assure le fournisseur.
« Data Cleans Rooms » : Google Cloud sur les pas de Databricks et Snowflake
Les fonctionnalités de gouvernance de BigQuery devront assurer la sécurité de la combinaison de ces données internes et externes, dans un souci de confidentialité et de conformité.
En outre, « les clients qui le souhaitent pourront créer leurs propres salles blanches sur BigQuery avec leurs propres cadres de gouvernance des données plutôt que de s’appuyer sur les capacités de Google », déclare Gerrit Kazmaier, vice-président et directeur général base de données, analytiques, et Looker chez Google Cloud.
Doug Henschen, analyste chez Constellation Research, remarque à juste titre que des concurrents tels que Databricks et Snowflake ont introduit des fonctions similaires. Les salles blanches associées au data warehouse cloud de GCP ne sont qu’une réponse.
Il n’en reste pas moins, selon Mike Leone, analyste chez Enterprise Strategy Group [propriété de Techtarget, également propriétaire du MagIT], que cette notion de confidentialité est cruciale pour les entreprises.
« C’est l’une des raisons pour lesquelles nous avons vu plusieurs annonces de salles blanches au cours des derniers mois », insiste-t-il. « C’est particulièrement important dans des secteurs très réglementés comme la santé et la finance, où de nombreuses parties travaillent ensemble, mais doivent protéger la vie privée des individus et maintenir la conformité ».
En outre, GCP a annoncé BigQuery ML Inference Engine. Il s’agit d’une extension des capacités d’inférence de sa plateforme, permettant d’importer des modèles de machine learning personnalisés en provenance de différents frameworks entraînés en dehors de BigQuery. Auparavant, Google supportait les modèles au format TensorFlow, mais s’ouvre à ONNX et XGBoost. Par exemple, Les utilisateurs de PyTorch et scikit-learn peuvent convertir leurs modèles au format ONNX avant de les exécuter sur BigQuery.
Pour des modèles plus gourmands, qui ont besoin de plusieurs accélérateurs graphiques pour s’inférer, Google propose de déployer un point de terminaison vers un environnement Vertex AI.
Dans la même veine, GCP met à disposition des modèles préentraînés de son cru pour traiter des données non structurées, par exemple pour de l’annotation d’images, de la compréhension et de la traduction de textes. Ceux-ci, estampillés « Cloud AI models » sont disponibles par API, mais les usagers peuvent les appeler via des fonctions à même la console BigQuery. Les API retourneront des résultats sous forme de données JSON.
Google revoit la politique tarifaire de BigQuery
Google Cloud a également profité de son événement consacré à l’analytique pour revoir sa politique tarifaire. Il y a une bonne et une mauvaise nouvelle.
La bonne, c’est que les coûts de BigQuery, selon Google, devraient être plus prévisibles.
Jusqu’alors, le fournisseur cloud ne proposait que des tarifs d’analytiques à la demande à 5 dollars par téraoctet pour les requêtes et des tarifs d’analyse forfaitaires à un coût mensuel de 2 000 dollars par vCPU (que Google appelle « slots » ou « emplacements »).
Désormais, avec l’introduction des éditions de BigQuery, les clients peuvent choisir parmi trois options de tarification basées sur la consommation - Standard, Enterprise et Enterprise Plus.
L’option Standard coûte 0,04 dollar par slot/heure (facturé dès la première minute) et est optimisée pour l’analyse SQL standard. L’option Enterprise augmente le coût à 0,06 dollar par slot/heure et est conçue pour des analyses plus avancées, et l’option Enterprise coûte 0,10 dollar par slot/heure et inclut des fonctionnalités plus spécifiques à l’application, telles que la conformité FedRAMP.
Chaque option est proposée à un tarif réduit de 20 % avec un engagement d’un an, tandis que les clients des éditions Enterprise et Enterprise Plus peuvent s’engager sur trois ans et bénéficier d’une réduction de 40 % sur le prix public. Ces remises sont automatiques.
Doug HenschenAnalyste, Constellation Research
La mauvaise nouvelle, c’est que Google a indiqué qu’à partir du 5 juillet 2023, le coût de l’analytique à la demande (prix à la requête) augmentera de 25 % dans toutes les régions « pour refléter les améliorations des performances et du modèle serverless ». Le même jour, les engagements forfaitaires existants ne seront plus disponibles. Les clients seront automatiquement basculés vers les nouvelles offres.
« La nouvelle flexibilité tarifaire de BigQuery nous permet d’utiliser les éditions pour répondre aux besoins de notre entreprise au niveau le plus granulaire », indiquerait Antoine Castex, architecte de données chez L’Oréal, dans un billet de blog rédigé par la communication de Google Cloud.
Sur Twitter, le même Antoine Castex note toutefois qu’un tel changement ne conviendra pas à tout le monde.
« Il n’y a pas de grande différence par rapport à aujourd’hui, oui les augmentations de prix sont plus un problème pour les petites entreprises… nous avons des prix négociés et fixes de notre côté », révèle-t-il.
« Google a continué d’améliorer les fonctionnalités et le modèle de tarification de BigQuery afin d’être plus compétitif en réponse au marché et aux demandes des clients », déclare Doug Henschen, reprenant presque au mot près les arguments de Gerrit Kazmaier. « L’optimisation des coûts est très présente dans l’esprit des clients de nos jours. Il est préférable d’avoir plus d’options, même s’il est courant de voir les remises les plus importantes liées à des engagements à long terme ».
Pour tenter de réduire les coûts, il faudra négocier avec Google Cloud, s’essayer au modèle tarifaire « données compressées » – accessible en bêta – et à l’autoscaling, « plus granulaire » qui permettrait aux clients « de réduire leur capacité actuelle de 30 à 40 % », dixit Gerrit Kazmaier.