Business Data Cloud : SAP enchâsse Datasphere dans une nouvelle offre

Avec Business Data Cloud, SAP se rapproche de Databricks pour proposer un moyen « entièrement managé » de créer des produits de données à partir de DataSphere (entre autres). Une offre alignée avec les stratégies SaaS et GenAI de l’éditeur allemand, mais le diable se cache dans les détails, préviennent les analystes.

SAP s’apprête (à nouveau) à changer les habitudes de ses clients. L’éditeur allemand lance Business Data Cloud, une évolution de sa solution d’entreposage de données DataSphere. Ce serait l’aboutissement de son approche « Business Data Fabric », et le fruit d’une alliance préférentielle avec Databricks.

Jusqu’alors les clients réclamaient principalement des intégrations avec des systèmes de gestion de données tiers, dont Google BigQuery, Snowflake, Collibra ou encore Databricks.

Business Data Cloud implique la création d’instances « SAP Databricks »

Ces intégrations ou projets d’intégrations concernaient principalement SAP Datasphere et Analytics Cloud (SAC). Il était déjà possible pour les clients de développer des produits de données. Mais l’éditeur a constaté qu’ils étaient complexes à créer et à intégrer avec des systèmes d’IA.

Ici, SAP propose de « gérer entièrement » des produits de données SAP combinant des données partagées entre SAP Insight Apps, Analytics Cloud, DatapShere et BW/4HANA on RISE. Ces produits de données incluront les données sources en provenance de S/4HANA Cloud, Successfactors, Ariba et d’autres. Ces produits sont gouvernés par SAP pour être « combinés » avec des données « non SAP » à l’aide d’un mode de type « zero ETL ». Dans les faits, il semble que SAP ait souhaité un moyen de profiter de ces fonctions de partage de données/transformation de données simplifiées.

Pour l’instant, SAP intègre Business Data Cloud avec Databricks en permettant de concocter des produits de données via des tenants « SAP Databricks » prévus à l’occasion. Dans ces tenants, les clients pourront utiliser Databricks SQL, Mosaic AI sur leurs données SAP, qu’ils cogéreront avec le catalogue Unity. Il sera possible de transférer le résultat des transformations depuis les tenants SAP Databricks vers des instances Databricks contenant des données d’autres systèmes, dont Salesforce, ServiceNow, Confluent, des serveurs FTP, etc. Pour cela, les deux partenaires s’appuient sur le protocole Delta Sharing.

« Nous gérons les produits de données et les maintenons dans notre catalogue BDC, anciennement celui de DataSphere », précise Irfan Khan, président et directeur des produits SAP HANA et Analytics. « Ensuite, c’est au moment du partage des données qu’elles apparaissent dans les catalogues supplémentaires d’Unity, du côté de Databricks ou même du côté de Collibra », ajoute-t-il. « Nous avons donc une couche de cohérence d’un catalogue à l’autre, mais en fin de compte, c’est SAP qui est responsable de la gouvernance ».

Le provisionnement de cette solution SaaS passera par un compte SAP for me. Techniquement, l’éditeur introduit une nouvelle notion nommée « formation client » permettant de gouverner plusieurs tenants, que ce soient des tenants SAP BW ou Databricks, à travers Business Data Cloud. « Nous gérons la gouvernance et la gestion du cycle de vie des utilisateurs », assure Irfan Khan. Business Data Cloud sera disponible sur AWS, « suivi de près par Google Cloud Platform (GCP) et Microsoft Azure ».

« Nous avons également de nombreux partenaires qui enrichissent le modèle de données de SAP Business Data Cloud et créent ces applications internes avec nous, en apportant cette profondeur du domaine des processus d’entreprise pour pouvoir ensuite fournir de la valeur à nos clients », vante Muhammad Alam, directeur produit et ingénierie, membre du conseil d’administration chez SAP.

Une alliance en apparence exclusive

À savoir si SAP proposera une alliance similaire avec d’autres acteurs que Databricks, Muhammad Alam laisse entendre que ces alliances seront, pour le moment, indirectes.

« Nous favorisons l’interopérabilité. Cependant, nous sommes convaincus que l’alliance entre SAP et Databricks au sein d’une offre unifiée constitue une différenciation majeure par rapport aux alternatives existantes », assure-t-il.

« Sous le capot, la BDC est principalement basée sur Databricks, mais les clients SAP qui veulent et doivent créer des applications de nouvelle génération basées sur l’IA ne s’en soucient pas », commente Holger Mueller, analyste chez Constellation Research, dans un billet de blog. « SAP a juste besoin de la capacité. Il est tout aussi important que SAP souhaite que la BDC soit ouverte aux données tierces, car tout lac de données en 2025 doit être ouvert à n’importe quel contenu ».

Business Data Cloud n’est pas à proprement parler un renommage (quoique). Il pourrait être perçu comme la création d’un nouveau produit par l’extraction de fonctionnalités existantes ou promises dans DataSphere. Quoiqu’il en soit, il implique de futures évolutions contractuelles. « Nous allons reconfigurer de manière transparente les tenants existants d’un client pour l’intégrer à ce nouveau Business Data Cloud », avance Irfan Khan. « Naturellement, l’évolution se fait en fonction des contrats en cours : si vous avez un contrat existant dans le cadre de BTP ou d’un abonnement standalone, la transition se fera au moment de son expiration ».

Bien évidemment, ajoute-t-il, les clients pourront réclamer cette transition et trouver « une option » avec leur responsable de compte. L’appellation DataSphere est, semble-t-il, amenée à disparaître.

SAP affirme que « ce nouveau type d’instance Databricks offrira un accès aux données plus simple et plus fluide. Et à un coût inférieur par rapport à l’alternative consistant à exporter les données SAP via des outils d’intégration tiers », note Doug Henschen, analyste chez Constellation Research. Il faut toutefois prendre en compte que « cette offre est exclusivement réservée aux clients ayant migré vers le cloud via RISE with SAP. Concernant les clients Databricks existants, cette instance ne comprend ni les fonctionnalités d’IA/BI de Databricks (remplacé par SAP Analytics Cloud), ni Lakeflow, ni Lakehouse Federation », prévient-il.

 Doug Henschen est plus critique que son collègue Holger Mueller. « Le ciblage et les exclusions de ce partenariat sont clairement conçus pour bénéficier à SAP et à Databricks tout en désavantageant les concurrents tels que Snowflake », pointe-t-il. « Je pense que les clients de longue date de Databricks seront mécontents de devoir introduire une instance distincte pour accéder aux données SAP. Tandis que les nouveaux clients finiront par vouloir les capacités de Lakeflow et Lakehouse Federation, mais devront mettre en place une autre instance pour les obtenir ».

IA générative et Joule : SAP choisit le camp de l’IA neuro-symbolique

SAP a un autre argument : l’intégration de Joule. L’éditeur allemand entend adosser ses agents propulsés par l’intelligence artificielle au Knowledge Graph de Datasphere (ou faut-il dire de BDS ?).

Les agents Joule auraient déjà accès à 1 300 « skills », des actions qu’ils peuvent activer dans l’écosystème de logiciels SAP. Il s’agit d’enclencher en langage naturel différents processus transactionnels, analytiques ou encore retrouver des données (RAG). En cela, le Knowledge Graph est l’un des piliers pour ancrer les réponses des grands modèles de langage dans la réalité terrain, insiste Philipp Herzig, directeur technique de SAP (le remplaçant de Juergen Mueller depuis deux mois).

Ce graphe de connaissances est à la fois utilisé pour les agents « prêts à l’emploi » et ceux développés à l’aide d’une nouvelle interface par les clients. Cela permettrait de garantir une « structure et une orientation adaptées ».

En cela, SAP entend se distinguer de Salesforce et d’Agentforce. Alors que Salesforce orchestre son système multiagent en couplant un modèle de raisonnement et un graphe orienté acyclique, l’éditeur se range du côté des adeptes de l’IA neuro-symbolique.

« La combinaison de systèmes, tels que les réseaux neuronaux et les grands modèles de langage, avec des approches classiques basées sur des règles et l’IA symbolique, s’avère particulièrement utile », estime Philip Herzig. « Cela permet d’améliorer la précision, d’optimiser les coûts et les performances, et d’assurer une exécution efficace du système ».

Reste à voir, justement s’il n’est pas plus intéressant de s’appuyer sur des systèmes tiers afin de créer des produits de données et des agents qui manipulent des données SAP, quitte à payer des coûts de sortie de données. Pour l’instant, l’éditeur allemand n’a pas communiqué sur les dates de disponibilité de Business Data Cloud et des fonctionnalités supplémentaires de Joule.

(Photo en haut d’article : Christian Klein, PDG de SAP. Crédit image : ©G.Raoul)

Pour approfondir sur Datawarehouse