Jakub Jirsk - Fotolia

Data management : SFEIR partage sa méthode pour choisir les bonnes solutions

Inspirée de Gartner et de Forrester, SFEIR a présenté son rapport TechWaves 2022 consacré aux solutions de gestion de données. Ce baromètre mêle le principe de vagues du Forrester Wave avec le Hype Cycle de Gartner, mais la néo-ESN entend surtout partager sa méthodologie de veille technologique.

Ce document scrute 100 solutions de data management réparties dans quatre grandes catégories et dans 13 sous-divisions technologiques. La grande majorité des produits évalués sont des bases de données SQL, NoSQL et des data warehouses, mais le rapport observe aussi les catalogues de données, les plateformes MLOps ou encore les frameworks de machine learning.

« Nous avons commencé par la gestion de données parce que c’est une demande très forte de nos clients », affirme Olivier Rafal, directeur du conseil chez Envision by SFEIR, la nouvelle filiale-conseil de l’ESN. « Au départ, ils ne cherchent pas une technologie particulière. Ils s’interrogent sur leur stratégie data, les plateformes de traitement à mettre en place, etc. Très vite, on en vient à évoquer les composants à déployer ».

Une techWave est divisée en six phases distinctes : l’expérimentation, le décollage, la croissance, le plateau, la décroissance et la menace. Comme son nom l’indique, les technologies listées dans la première phase peuvent être naissantes, servir à des startups ou être testées lors de PoC.

Les technologies sourcées dans la phase de décollage sont adoptées par des startups ou des DSI prêts à y investir du temps et de l’argent. Les produits dans la phase de croissance sont des logiciels récents, mais généralement bien supportés commercialement.

Les solutions répertoriées dans la phase de plateau ont trouvé leur marché, elles sont éprouvées, les éditeurs et les intégrateurs les connaissent bien. La phase de décroissance est synonyme d’un début de dette technologique, de moins en moins d’acteurs soutiennent les produits référencés et le nombre de nouveaux projets diminue. Enfin, la phase de menace concerne des systèmes vieillissants, « à proscrire sur un nouveau projet » ou qui ne sont plus supportés par beaucoup d’acteurs.

Ainsi, dans la catégorie des bases de données relationnelles et transactionnelles, SFEIR considère que Sybase et Informix sont menacés, Oracle, SQL Server et DB2 sont en phase de décroissance, tandis que MySQL, PostgreSQL et MariaDB ont atteint un plateau. AWS Aurora, CloudSQL et AzureSQL DB connaissent un usage croissant, tandis que Google Cloud Spanner et MariaDB Expand rejoignent la partie expérimentation. 

Certains domaines sont plus actifs que d’autres, selon les observations de SFEIR. Le marché des entrepôts de données affiche une vague au profil différent. Netezza, Vertica, Oracle DW, Teradata et Hive sont en décroissance, Cloudera Enterprise Data Platform atteint un plateau, alors que RedShift, BigQuery et Snowflake croissent. Clickhouse est en phase de décollage, il est talonné par Azure Synapse Analytics, Oracle Autonomous Data Warehouse et Panoply. 

En clair, certains éditeurs traditionnels peuvent revenir par la porte de l’innovation. « BigQuery est un best-seller auprès des clients de SFEIR », affirme Olivier Rafal, à titre d’exemple. De manière générale, la majorité des acteurs du data warehousing se concentrent sur des offres cloud natives, ce qui explique ces reflux. 

La croissance évidente de multiples services managés

La domination des bases et des entrepôts de données à tout faire tend à disparaître, selon Olivier Rafal. Les architectures dans le cloud ne reposent plus sur un monolithe. « Dans les architectures cloud, l’on est beaucoup plus souvent dans un monde polyglotte : plusieurs langages de programmation cohabitent et les organisations utilisent des composants spécifiques en fonction de ce qu’elles veulent réaliser ».

« Il est tout à fait pertinent d’utiliser différentes technologies pour des besoins spécifiques, tout en collectant les données et en les stockant dans un data lake avant de les analyser. »
Olivier RafalDirecteur du conseil chez Envision by SFEIR

La seule exception semble être les data lakes. « Il est tout à fait pertinent d’utiliser différentes technologies pour des besoins spécifiques, tout en collectant les données et en les stockant dans un data lake avant de les analyser », note-t-il. « Nos clients sont en train de transformer leurs architectures analytiques de cette manière. C’est un vrai mouvement massif ».

D’autres catégories rassemblent peu d’acteurs. Par exemple, la vague des bases de données de série chronologiques représente InfluxDB, Prometheus, et KDB+ sur un plateau, tandis qu’Amazon Timestream, lancée en 2020 semble calibrée pour les expérimentations, selon SFEIR. Si les usages Timestream et d’InfluxDB sont proches, Prometheus est sans doute le service le plus utilisé par les équipes IT et les éditeurs pour le monitoring et l’alerting. Il en va de même pour les bases de données orientées graphes, dont les usages s’avèrent très spécifiques, d’après SFEIR.

Quant aux plateformes MLOps, par exemple, le marché est naissant : Kubeflow et MLflow sont en croissance, mais AzureML et AWS SageMaker sont en phase de décollage. DataRobot serait à « surveiller », avec son offre en expérimentation.

De manière générale, Olivier Rafal constate que le cloud a provoqué des transformations importantes ces dix dernières années. « En ce moment, l’on observe la montée en puissance des services managés chez les clients. Le fait de ne pas administrer la montée de versions, une bonne partie des éléments de sécurité, la haute disponibilité et la montée à l’échelle, et tout cela plus simplement à des tarifs beaucoup plus abordables, est un des changements majeurs du marché ».

Ces services majoritairement basés sur l’open source réclament tout de même de faire attention aux conditions commerciales et d’utilisation. « Malgré la dépendance à un fournisseur, une base de données MySQL ou PostgreSQL managée garantit la réversibilité. L’autre point à évaluer, ce sont les coûts d’egress, quand il faut sortir les données d’une instance cloud. Il faut faire attention à l’aspect FinOps afin de mesurer l’usage et son coût. Il n’y a pas forcément des freins, mais des points d’attention à avoir en tête », considère Olivier Rafal.

Le crowdsourcing, une méthodologie de veille pour la DSI

Il ne s’agit pas seulement de partager les remarques d’une ESN. SFEIR a conscience que son analyse est basée sur le retour de ses clients, ses employés et son flux commercial. En clair, un autre acteur pourrait avoir une vision sensiblement différente. Par exemple, les produits de data cataloging de DataGalaxy et de Zeena, deux éditeurs français, sont en décollage. « Nous avons un certain nombre de clients qui ont considéré que ces produits-là étaient plus simples que ceux des concurrents de type Collibra ; et Zeena et DataGalaxy sont de plus en plus actifs sur le marché », explique le directeur du conseil.

Si la néo-ESN assure qu’elle n’a pas orienté son analyse, elle aurait pu mettre en avant ses partenaires technologiques privilégiés. Ce n’est pas le but, selon Olivier Rafal. 

« Cela fait longtemps que nous opérons ce genre de sélection et d’analyse en interne », affirme-t-il. « En tant que société de services, nous devons satisfaire nos clients, nous concentrer sur les technologies de pointe pour construire des systèmes d’information compatibles avec le futur et non pas nous contenter de fournir la main-d’œuvre. Pour cela, il faut miser sur le bon cheval, la bonne vague technologique », indique Olivier Rafal. 

Si les cabinets d’analyse présentent brièvement leur méthodologie, il n’en détaille pas les tenants et aboutissants. D’autant que, selon Olivier Rafal, les rapports de Gartner et de Forrester donnent un aperçu d’une technologie et de son adoption à un moment T. En sus de son TechWaves, SFEIR partage sa méthodologie. 

« Didier Girard [Co-CEO de SFEIR NDLR] a conçu cette méthodologie par itérations successives pour des besoins internes. Elle nous permet de sélectionner des technologies, d’embaucher des profils, de former les développeurs qui ne les connaissent pas et d’offrir des formations consacrées à ces technologies-là », explique Olivier Rafal. 

Avant de rejoindre SFEIR, Olivier Rafal a travaillé dix ans pour le cabinet d’analystes Teknowlogy PAC. Il a proposé de formaliser la méthodologie afin de la partager avec « les clients et les pairs ». « Ce n’est pas pour rien que le rapport est disponible en Creative Commons, il y a une véritable volonté de partager cette approche ».

L’ESN estime qu’elle propose les bonnes bases pour aider les DSI à évaluer s’ils peuvent conserver leurs existants et sur quelles technologies misées à l’avenir. « Nous considérons l’usage de la technologie sur la durée et pas uniquement son adoption, nous avons introduit un long plateau avant la phase de décroissance », peut-on lire dans le document.

SFEIR entend donner les clés pour que les entreprises effectuent leur propre techWave. Pour chaque produit et projet open source sourcé dans le document, la néo-ESN a réalisé une carte d’identité en s’appuyant sur un « spider graph », de son vrai nom le diagramme de Kaviat.

« Si toutes vos compétences sont sur une solution plutôt qu’une autre, même si elle est moins performante sur le papier, elle sera peut-être plus adaptée pour vous. Si la technologie est vieillissante, il faudra sans doute engager un plan de formation. »
Olivier RafalDirecteur du conseil chez Envision by SFEIR

Pour le remplir, une organisation peut constituer ses propres critères de notation. Dans le cadre de son TechWave, SFEIR a principalement observé la facilité de prise en main (la possibilité de réaliser un POC en quelques jours), l’intérêt en conférences, le volume d’articles et de blogs, l’existence de livres de référence, la disponibilité de Moocs, la dynamique de la technologie sur Google Trends, ou encore le nombre de profils LinkedIn qui la mentionne.

Olivier Rafal évoque d’autres critères : les consultants techniques de SFEIR ont également partagé leurs avis et nommé les produits qu’ils trouvent intéressants ou qu’ils ont vus chez des clients. Le nombre d’étoiles, de forks et de contributeurs sur les projets disponibles sur GitHub sont aussi des indicateurs à retenir pour apprécier la vivacité d’une communauté. De même, les discussions Stack Over Flow permettent d’évaluer la pertinence d’une solution et de rapidement comprendre ses limites. 

Si ce n’est pas une science exacte, cette approche basée sur le crowdsourcing doit permettre de simplifier la détection de nouvelles technologies ou de solutions adéquates. Une DSI devra tout de même corréler cette analyse avec son vivier de développeurs en interne. « Si toutes vos compétences sont sur une solution plutôt qu’une autre, même si elle est moins performante sur le papier, elle sera peut-être plus adaptée pour vous. Si la technologie est vieillissante, il faudra sans doute engager un plan de formation », illustre le directeur du conseil.  

Pour approfondir sur Base de données

Close