Cisco et Splunk dévoilent leur stratégie Data Fabric
Cisco Data Fabric met l’accent sur l’application des analyses Splunk aux données là où elles se trouvent, plutôt qu’à un point d’ingestion central, et ajoutera davantage de sources de données tierces telles que Snowflake et Microsoft Azure.
Cisco et Splunk ont dévoilé cette semaine une nouvelle orientation stratégique visant à mieux prendre en charge l’IA d’entreprise dans le cadre de l’architecture Cisco Data Fabric.
Une architecture Data Fabric offre une vue unifiée des données provenant de différents systèmes. Les données en provenance de sources diverses sont virtualisées afin qu’il ne soit pas nécessaire de les transférer vers un référentiel central pour les analyser. Splunk a commencé ces dernières années à prendre en charge les fonctionnalités Data Fabric. C’est notamment le cas avec l’interrogation fédérée du contenu de buckets Amazon S3. L’année dernière, l’entreprise a également ajouté la prise en charge d’un nouveau Pipeline Builder et Ingest Processor pour Splunk Cloud, ainsi que l’analyse fédérée. Cela a rendu la plateforme Splunk plus inclusive des sources de données tierces. Une ouverture qui va de pair avec la participation forte de l’éditeur au projet OpenTelemetry.
Cette semaine, Cisco a franchi une nouvelle étape avec le dévoilement de Cisco Data Fabric, une refonte architecturale de Splunk Enterprise et Splunk Cloud Platform qui guidera les lancements de produits jusqu’en 2026. La nouvelle architecture inclura de nouvelles intégrations entre les outils d’observabilité et de sécurité sous l’égide de Cisco, notamment Splunk, AppDynamics, Isovalent et ThousandEyes.
Il sera aussi possible de fédérer des données en provenance de lacs prenant en charge Apache Iceberg, Delta Lake (à partir de pipelines de transformation Apache Spark), Snowflake et Microsoft Azure. Les données pourront être acheminées vers le moteur de stockage et d’analyse « le plus appropriée pour la charge de travail ». Et Cisco de promettre la disponibilité d’autres sources tierces en 2026.
Cisco Data Fabric n’est pas un nouveau produit distinct. Selon un porte-parole de Splunk, il sera proposé aux clients existants de Splunk Enterprise et Splunk Cloud Platform au cours de l’année prochaine. Des changements seront apportés en coulisses afin de renforcer les liens entre les jeux de données et les outils d’analyse. Ce sera notamment le cas grâce à l’extraction automatisée de champs qui doit faciliter la découverte de données en détectant les dérives de format. Le groupe entend aussi mettre en place des pipelines autoréparateurs. Ceux-là doivent éliminer les tâches fastidieuses liées aux expressions régulières lors de la configuration. Splunk va également poursuivre l’unification des analyses entre les données machine et les données métier.
Si la nouvelle orientation générale de Splunk et d’autres propriétés intellectuelles de Cisco a été clairement définie, une grande partie des éléments présentés cette semaine en est encore au stade préliminaire. Dans un même temps, les questions pratiques concernant le coût total d’exploitation de la nouvelle architecture et ses performances (un des désavantages majeurs des systèmes fédérés) restent sans réponse.
Pour un gros client de Splunk, seul le temps dira si la valeur potentielle de Cisco Data Fabric l’emporte sur la durée nécessaire à sa mise en œuvre.
« Chaque outil fonctionne bien individuellement, mais lorsqu’ils sont combinés, vous obtenez des informations plus rapidement et un retour sur investissement plus rapide », explique Steve Koelpin, ingénieur principal en observabilité IA dans une entreprise du classement Fortune 50 et membre de la communauté d’utilisateurs SplunkTrust. « AppDynamics et Splunk peuvent [déjà] partager des données via des API ou des connecteurs. Il n’existe pas toutefois de véritable couche de corrélation native. Data Fabric comble cette lacune en regroupant les données télémétriques provenant d’AppDynamics, de l’infrastructure Cisco et d’outils externes dans une structure corrélée unique ».
Cisco Data Fabric élargit l’objectif de fédération
Cisco Data Fabric représente une rupture par rapport aux pratiques de Splunk en matière de gestion des logs. Elle reposait sur l’ingestion et l’indexation des données dans un système géré de manière centralisée.
« Il n’est pas réaliste d’ingérer toutes les données dans Splunk. Nous envisageons donc d’amener Splunk vers les données, là où elles se trouvent ».
Kamal Hathivice-président senior et directeur général de la division Splunk, Cisco
« Il n’est pas réaliste d’ingérer toutes les données dans Splunk », avance Kamal Hathi, vice-président senior et directeur général de la division Splunk de Cisco, lors d’une conférence de presse la semaine dernière. « Nous envisageons donc d’amener Splunk vers les données, là où elles se trouvent. Au lieu d’essayer de créer un gigantesque lac de données, nous proposons d’aller chercher ces petites mares et ces petites flaques de données et de les combiner en une vue fédérée et distribuée ».
Cela dit, il y aura également un nouveau lac de données appelé Splunk Machine Data Lake, annonce Kamal Hathi.
« Il s’agit d’un lac virtuel, et non physique. Il couvre toutes ces sources fédérées, mais reprend tout le travail que nous effectuons en matière de recherche et d’analyse (schématisation, corrélations). Il permet de créer des catalogues persistants que vous pouvez commencer à utiliser pour le traitement par IA », précise-t-il.
Par exemple, « vous êtes peut-être une entreprise manufacturière et vous voulez savoir ce qui se passera au cours des trois prochains jours si la température à l’extérieur de l’usine augmente d’un degré », explique-t-il. « Il est très difficile de corréler ce genre de choses actuellement. Ou peut-être voulez-vous savoir ce que signifie une augmentation globale de 3 % du taux de trésorerie disponible. L’un concerne la performance, l’autre la disponibilité, mais ils peuvent être liés… Nous pouvons commencer à combiner ces signaux multivariés dans cette nouvelle classe d’IA ».
Kamal Hathi ajoute que Cisco Data Fabric recueillera également des données machine à partir d’équipement Edge et réseau via Isovalent, y compris celles de capteurs installés dans les usines. Le contexte commercial sera pris en charge grâce à un nouveau partenariat avec Snowflake afin d’alimenter un ensemble plus large d’informations. Ce jeu de données sera soumis à des modèles d’IA générative. Ceux-ci comprendront un modèle fondamental ouvert de séries chronologiques, dont le lancement est prévu en novembre sur Hugging Face.
La ruée vers l’IA s’intensifie dans le secteur de l’observabilité
Mais selon les analystes du secteur, la vaste base de clients de Cisco dans le domaine des réseaux d’entreprise (dont des groupes qui traitent de très large volume de données machine) pourrait lui offrir un avantage unique.
« Cisco Data Fabric permet à Splunk d’accéder à des données machine provenant de tous types d’équipements réseau auxquels ses concurrents n’ont pas accès », explique Torsten Volk, analyste chez Enterprise Strategy Group, qui fait désormais partie d’Omdia. « Une grande partie de ces données ne quittent jamais leur appareil pour des raisons de coût ou de conformité », poursuit-il.
« Extraire des signaux de toutes ces données grâce au traitement en périphérie et les combiner avec des données opérationnelles traditionnelles pourrait permettre de révéler des signaux que vous ne pourriez pas obtenir autrement par un traitement centralisé ».
Splunk a également des concurrents dans le domaine du traitement des données en périphérie et de la recherche fédérée. L’on peut citer ses rivaux de longue date, tels Cribl et Elastic. Mais selon un analyste, le projet d’intégrer Cisco AI Canvas, présenté lors du Cisco Live en juin, à Cisco Data Fabric d'ici 2026 pourrait faire changer d’avis les entreprises.
« AI Canvas est la meilleure interface AIOps que j’ai vue jusqu’à présent », considère Steven Dickens, PDG et analyste principal chez HyperFrame Research. « Ce qui m’a surtout plu dans AI Canvas, c’est son mode multijoueur », souligne-t-il, en filant la comparaison avec le monde du jeu vidéo.
« Ce mode permet de créer une toile avec [des collègues] et d’examiner les choses ensemble. Ce qui [correspond] à la manière dont un incident majeur se gère : une petite équipe composée d’un spécialiste réseau, d’un spécialiste de l’observabilité et peut-être d’un spécialiste serveur se réunit pour examiner un problème pendant trois ou quatre heures afin de le résoudre. Ensuite, cette équipe se dissout et chacun retourne à son mode solo ».
Pour approfondir sur Administration et supervision du Cloud