alex_aldo - Fotolia

Observabilité : Dynatrace s’adapte dans un contexte de réduction des coûts

Dynatrace cherche à répondre à la croissance des données d’observabilité de manière plus abordable, mais les professionnels de l’IT disposent de nombreuses alternatives pour faire face à ce problème croissant.

Cette semaine lors de son événement Perform, Dynatrace est l’un des derniers éditeurs de solutions d’observabilité à revoir ses coûts en réponse aux préoccupations de ses clients. Il a dévoilé un forfait pour les données bulk et de nouvelles méthodes d’ingestion de données dans sa plateforme.

Alors que les entreprises collectent une quantité toujours plus importante de données d’observabilité pour suivre les applications distribuées, le coût de leur gestion augmente rapidement. Sur fond d’inquiétudes macroéconomiques au cours des 18 derniers mois, les professionnels de l’informatique ont commencé à repenser leurs approches, de la consolidation du nombre de fournisseurs avec lesquels ils travaillent à la réduction de la quantité de données ingérées dans les systèmes back-end. Dans le même temps, ils doivent répondre au besoin de sophistication accrue de l’observabilité des données à mesure que l’analytique avancée et l’utilisation de l’IA générative se développent.

« Il y a actuellement beaucoup d’activités en ce qui concerne les éditeurs et fournisseurs qui modifient leurs modèles de prix [car] les entreprises collectent de plus en plus de données de télémétrie et se rendent compte que leurs coûts d’observabilité vont continuer à augmenter », rappelle Nancy Gohring, analyste chez IDC. « Dans le même temps, pratiquement tout le monde ressent une pression pour réduire les coûts partout où c’est possible. Les fournisseurs l’entendent clairement de la bouche de leurs clients et réagissent en proposant de nouveaux modèles et plans de tarification ».

Dynatrace suivrait le mouvement observé chez ses concurrents, en particulier New Relic et Splunk. Il prévoit d’ajouter un niveau de tarification pour son agent OneAgent appelé Foundation & Discovery.

Celui-ci se place avant le niveau intermédiaire Infrastructure listé à 0,04 $ par heure pour n’importe quelle taille d’hôte (28,80 dollars par mois), et le niveau haut de gamme de tarification « Full-Stack monitoring », coûte 0,08 $ par heure pour un hôte de 8 gigaoctets (57,60 dollars par mois).

Foundation & Discovery est facturé 0,01 dollar par heure et par hôte (7,20 dollars par mois). Le forfait inclut la découverte topologique (Dynatrace Smartscope, désormais propulsé par eBPF), la mesure de la criticité des hôtes (détection des services externes et des dépendances applicatives), le monitoring de base (santé des hôtes, monitoring des fichiers de systèmes et des OS). Les clients peuvent opter pour la gestion des logs et les outils RASP et d’analyse de vulnérabilité à l’exécution de l’éditeur, moyennant un surcoût. Contrairement aux autres offres, Foundation & Discovery n’inclut pas les détails des processus des hôtes, des analyses de disques, de la mémoire et du réseau. Les utilisateurs n’ont pas non plus accès à des métriques personnalisées, aux extensions ainsi qu’au tracing et au profiling.

« Foundation & Discovery est disponible sur Dynatrace SaaS pour les comptes avec un abonnement à Dynatrace Platform et sera introduit pour les comptes Dynatrace Managed dans le futur », précise l’éditeur.

S’il y a bien des changements en cours concernant les modèles de tarification, Gartner signalait dans son Magic Quadrant consacré à l’APM et à l’observabilité, publié en juillet 2023, que Dynatrace était passé d’un modèle tarifaire à l’unité à un autre à l’heure. En conséquence, les analystes appelaient à la prudence.

« Les clients existants, y compris les équipes responsables des achats, devront comprendre l’impact que cela aura sur les renouvellements de contrats, et les nouveaux clients devront évaluer soigneusement leur niveau de dépenses annuelles engagées », préconisait alors le Gartner. 

Le forfait Foundation & Discovery est donc moins cher, mais il correspond surtout à la nouvelle offre d’entrée de gamme de Dynatrace.

Les pipelines à la plateforme de Dynatrace s’adaptent à la croissance des données

Dynatrace a également dévoilé cette semaine ses projets de déploiement d’un service de pipeline de données d’ici à trois mois. Il devra permettre d’effectuer une partie des traitements en dehors du back-end Dynatrace. Cette nouvelle fonctionnalité OpenPipeline est similaire à ce que proposent d’autres éditeurs de pipelines de données d’observabilité tels que Cribl, CloudFabrix, Mezmo et Calyptia (aujourd’hui propriété de Chronosphere). OpenPipeline cible un objectif similaire : réduire les coûts de transfert, d’ingestion et de stockage des données en déléguant une partie des traitements à la source.

OpenPipeline prendra initialement en charge les logs et les métriques « métier », mais il pourrait potentiellement être utilisé dans le domaine de la sécurité pour détecter des pics ou des baisses inhabituels dans les données générées par les applications. Cela pourrait servir à alerter les équipes de ces changements, signe potentiel d’un incident de sécurité, évoque Alois Reitbauer, stratège technologique en chef chez Dynatrace.

« Si, pour une raison quelconque, la densité de vos rapports a changé de façon massive [alors que] d’habitude vous avez 10 000 entrées de logs par minute et que soudain ce volume tombe à cinq entrées… et que toutes les intrusions dans vos logs ont disparu [nous pourrions dire], “vos données ont l’air bizarres : il semblerait que vous ayez été piraté” ».

Dans les trois prochains mois également, Dynatrace améliorera sa fonction d’observabilité des données pour pré-analyser et nettoyer les données provenant de systèmes tiers avant leur ingestion dans sa plateforme. Cette évolution permettra d’élargir les sources de données que les Ops et les développeurs peuvent soumettre à ses algorithmes multimodaux d’analytique et d’automatisation des systèmes IT.

Cette fonctionnalité est par ailleurs disponible aux catalogues des éditeurs tels que Sumo Logic, ainsi que des fournisseurs de pipelines de données d’observabilité, qui prennent en charge une variété de sources de données. Mais avec certains nouveaux venus sur le marché tels que Flip AI, l’ingestion de données dans un back-end particulier ou propriétaire n’est pas nécessaire, déclare Nancy Gohring.

« Flip AI, qui a entraîné un LLM (large language model) spécifique à un domaine pour effectuer l’analyse des causes profondes à partir de données d’observabilité, ne se charge pas de la collecte ou du stockage des données. Il s’exécute sur ce que vous voulez », renseigne-t-elle. « Cela permet de considérer la collecte, le stockage et l’analyse des données comme trois exigences distinctes qui ne doivent pas forcément provenir du même fournisseur ».

Le fait de prétraiter les données à la source est une solution envisagée par Dynatrace, selon Alois Reitbauer, et insiste sur le fait qu’OpenPipeline prend en charge l’ingestion à l’échelle du pétaoctet de données, ce que ne feraient pas les petits concurrents.

Selon Nancy Ghoring d’IDC, Dynatrace et les autres éditeurs doivent continuer à ajouter de la valeur aux plateformes back-end pour justifier les coûts d’ingestion des données, car les projets open source tels que OpenTelemetry et Prometheus remplissent peu ou prou la même fonction.

« La seule manière pour les éditeurs les plus chers de continuer à se développer est d’offrir quelque chose de plus précieux qu’une collecte de données bon marché », signale-t-elle. « Ils doivent continuer à développer des fonctionnalités et à décrire correctement leur valeur en aidant les clients à comprendre rapidement et facilement ce qui se passe dans leurs applications et à résoudre les problèmes ».

Dynatrace met en avant son expertise BizDevOps

À cette fin, Dynatrace a présenté cette semaine la prise en charge de la surveillance des applications d’IA générative. À l’instar de ses concurrents Datadog et New Relic, Dynatrace peut superviser les LLM, les tokens en entrée et en sortie, leurs référentiels de données sous-jacents et les applications qui s’y intègrent.

Dynatrace prévoit toutefois de se différencier en offrant des indicateurs commerciaux sur les applications d’IA afin que les entreprises puissent décider si les ressources nécessaires pour soutenir l’IA sont justifiées par leur retour sur investissement, affirme Alois Reitbauer.

« Tous les éditeurs de solutions d’observabilité et de monitoring proposent une surveillance de l’IA », constate-t-il, « Nous voulons nous concentrer sur la mesure de la rentabilité [de l’IA] et l’analyse des requêtes des utilisateurs finaux ».

La semaine dernière, New Relic a également élargi la prise en charge des données métier, en intégrant son projet open source Pathpoint dans sa plateforme New Relic One. Toutefois, Pathpoint nécessite un processus manuel pour configurer cette collecte. Dynatrace peut détecter et corréler automatiquement des KPI à partir de flux d’acquisition existants, selon M. Reitbauer.

Acquisition de Runecast

Parallèlement, Dynatrace a acquis cette semaine Runecast, éditeur de solutions de sécurité et de conformité pilotées par l’IA, pour un montant non divulgué. Il espère ainsi améliorer les fonctionnalités de sa plateforme dans les domaines de la gestion de la posture de sécurité et de la protection des applications cloud natives (CNAPP).

Alors qu’une telle expansion risque de nécessiter d’ingérer davantage de données, la force de Dynatrace dans les outils de sécurité des applications ainsi que l’observabilité pourrait justifier l’investissement pour les équipes IT qui veulent centraliser la sécurité et l’observabilité de l’infrastructure, selon Katie Norton, analyste chez IDC.

« Cette acquisition de Runecast va probablement donner à Dynatrace des capacités supplémentaires, en particulier dans le domaine de la gestion des vulnérabilités », anticipe-t-elle. « Et il y a beaucoup de données partagées entre la sécurité et l’observabilité ».

En fait, dans les réponses à une enquête IDC 2024 DevOps qui sera bientôt publiée, 30,2 % des 311 professionnels de l’IT interrogés ont déclaré « avoir un modèle partagé pour la sécurité et l’observabilité, y compris les outils, les équipes et les sources de données ». Par ailleurs, 42,1 % ont affirmé distribuer certaines de ces ressources, et 17,7 % ont indiqué qu’ils prévoyaient de passer à un modèle partagé.

Selon Andy Thurai, analyste chez Constellation Research, la combinaison de la sécurité et de l’observabilité ainsi qu’une nouvelle architecture back-end Grail sont plus susceptibles de distinguer Dynatrace de ses concurrents dans le domaine du monitoring de l’IA que dans la BI et les fonctions FinOps.

« [L’architecture] Grail [de Dynatrace] permet de stocker facilement des données structurées et non structurées ensemble dans un lac de données sans index et sans schéma, et le flux de travail de remédiation avec Davis CoPilot est quelque peu unique et pourrait être un facteur de différenciation potentiel », conclut-il.

Pour approfondir sur Administration et supervision du Cloud

Close