Longchamp renforce les coutures de sa gestion de données

Le maroquinier de luxe adopte une « modern data stack » en se concentrant sur les nouveaux cas d’usage. Son objectif : mieux servir ses métiers en comblant d’abord les manques de ses systèmes existants.

Longchamp fait figure d’exception dans le paysage du luxe français. Contrairement aux maisons rassemblées au sein des groupes LVMH et Kering, le spécialiste de la maroquinerie demeure une entreprise familiale. Le PDG actuel, Jean Cassegrain, est l’homonyme de son grand-père, celui qui a fondé la marque en 1948.

Longchamp dispose de 1 300 points de vente dans 80 pays, dont 370 en propre à travers 25 filiales. La société compte 4 500 collaborateurs, un peu moins de 1 500 en France. Elle réalise la grande majorité de son chiffre d’affaires par la vente de sacs et de bagages. Jean Cassegrain reste discret concernant les informations financières de l’entreprise, mais il a fait part d’une hausse de 20 % des revenus en 2024.

« Longchamp est une “petite” entreprise, mais avec de gros enjeux », déclare Alaa E. Kay, responsable BI chez Lonchamp. Il intervenait lors de Coalesce On Tour Paris, un événement local de dbt au côté d’un porte-parole de Devoteam. « Nous fabriquons, nous distribuons et nous vendons nos produits sur notre propre réseau. Nos équipes sont de petite taille, mais elles portent énormément de responsabilité et de domaines d’activité ».

Ancien prestataire de service, Alaa E. Kay a commencé à travailler pour Lonchamp en 2013. « Mon rôle était de déployer l’entrepôt de données retail et le reporting associé », indique-t-il. Il a pris la responsabilité du pôle BI en 2015.

Comme dans beaucoup d’entreprises, les silos de données se sont accumulés au fil des ans, de manière organique.

Deux socles BI historiques difficiles à connecter

« Nous avons trois socles BI », indique Alaa E. Kay. « Le premier est articulé autour de l’activité Retail, la part la plus importante du chiffre d’affaires du groupe. Celui-ci est composé d’un ETL Informatica, d’une base de données SQL Server et IBM Cognos pour le reporting », décrit-il.

Un projet accompagné par Jean Cassegrain, alors directeur général de Longchamp. « Il est arrivé plusieurs fois que Jean Cassegrain lui-même conçoive des tableaux de bord et demande des conseils techniques concernant Cognos », relate Alaa E. Kay. « Par ailleurs, les premiers dashboards mis en place en 2014-2015 étaient issus de son propre design ».

Un deuxième socle BI a vu le jour, en complément d’un ERP SAP pour couvrir la gestion de la finance et des activités industrielles. « Nous avons déployé SAP BW en 2016-2017 pour couvrir l’ensemble des domaines liés à l’activité industrielle et logistique », relate le responsable de la BI.

Les équipes BI et IT pensaient fournir les outils nécessaires aux besoins de reporting de Longchamp. Mais une forme de « Shadow BI » est née autour de Power BI, sous l’impulsion des métiers.

« Le fait d’avoir un monde SAP et un monde non SAP a siloté beaucoup d’informations », explique le responsable BI. Les systèmes de l’éditeur allemand ne sont pas réputés pour leur ouverture. « Cela a généré de la frustration ».

De plus, l’équipe BI devenait, chemin faisant, un goulet d’étranglement. « Notre équipe de taille restreinte recevait directement de la part des métiers les demandes de création de tableaux de bord et d’indicateurs clé que nous devions mettre en place sur des infrastructures on premise vieillissantes », évoque Alaa E. Kay.

Une stratégie « data » impulsée par la direction

Une stratégie de modernisation commence à prendre forme lors de la covid. Elle est apparue essentielle après la crise sanitaire. « Longchamp connaît de belles années de croissance depuis la sortie de la covid », note-t-il. « En 2023, le directeur général en personne a demandé à inclure la “Data” en tant que levier pour les piliers stratégiques de l’entreprise, formulés dans un plan quinquennal. Nous devions absolument monter en niveau en matière de gestion de données ».

Une stratégie qui s’est d’abord illustrée par une phase d’acculturation des équipes techniques. « Nous avons proposé une organisation pour répondre aux besoins des métiers avant de déployer des cas d’usage », résume Alaa E. Kay.

Ces réflexions prennent racine dans un projet de cadrage lancé en 2024. « Ce projet de cadrage avait comme cible de définir une trajectoire technologique, organisationnelle et une feuille de route pour les prochaines années », relate le responsable BI.

Longchamp a décidé de se faire accompagner. C’est Devoteam qui a remporté l’appel d’offres. L’ESN a été jugée la plus apte à accompagner les équipes techniques étant donné ses témoignages clients et sa vision. « Nous adhérons complètement à la vision de la gestion de données de Devoteam », affirme Alaa E. Key.

En parallèle, la direction IT envisageait la transition vers le cloud. Une migration propice à la modernisation de la gestion de données.

« Nous avons étudié les outils agnostiques des fournisseurs de cloud en récoltant les retours de nos pairs. Snowflake est notre point d’entrée dans la “modern data stack”, constate le responsable BI.

« Une composante revenait dans tous les projets réussis liés aux nouvelles plateformes : la gouvernance de données », poursuit-il.

À l’aune de cet enjeu de gouvernance de données, les équipes techniques de Longchamp ont décidé de mettre en place le fameux troisième socle BI. « Nous ne pouvions pas rester dans notre zone de confort », considère Alaa E. Kay. « C’est là que se sont posées des questions concernant le choix des outils d’ingestion, de transformation, de reporting ».

Toutefois, Longchamp a pris une décision à contre-courant de la plupart des projets partagés par LeMagIT ces dernières années. Avec Devoteam et les directions métier, « nous avons statué collectivement que l’enjeu n’était pas de décommissionner les plateformes BI existantes. Elles sont amorties de longue date. Nous pouvons les laisser mourir de leur belle mort. Nous souhaitons faciliter l’adoption de nouveaux usages », nuance-t-il.

Après six mois de négociations avec les éditeurs, Longchamp a mené en parallèle le déploiement d’une plateforme, la formation de son personnel technique et la mise en place d’une nouvelle organisation.

Une organisation pour équilibrer gouvernance des données et cadence de livraisons

« Nous avons deux directions en matière de gestion de données. L’une s’occupe de la gouvernance de données et du suivi des besoins métiers, l’autre correspond à la “Data Factory”, à la maîtrise technologique », détaille Alaa E. Kay. « Je suis à la tête de cette deuxième organisation, tandis que nous avons recruté un chief data officer pour orchestrer la première ».

L’équipe de gouvernance est le point de contact unique de la data factory. Ces deux entités ont adopté les méthodes agiles et les livraisons sous forme de sprints. « Nous sommes plutôt des tech leads, des ingénieurs, des architectes de données », décrit le responsable de la BI. « En face de nous, nous avons des responsables produits, des data stewards, des propriétaires de données, des data analysts. Nous commençons à itérer, à déployer des outils, à tirer profit de nos connaissances, et à délivrer de la valeur beaucoup plus rapidement ».

Ce n’était pas encore totalement le cas en mars 2025. En début d’année, Longchamp a fait appel à des membres de Devoteam et d’autres partenaires pour déployer la plateforme et développer les premiers cas d’usage.

« Cela nous a permis pour la première fois d’unifier nos stocks issus de SAP et de Cegid », illustre le responsable BI.

Un premier projet d’unification des stocks

Si les systèmes SAP orchestrent les aspects logistiques, Cegid est utilisé pour la gestion des caisses et du stock en magasin aux États-Unis, en Asie et en Europe. Cegid est associé à une dizaine de sites Web, dont la majorité est gérée à l’aide de Salesforce Commerce Cloud.

« Il n’était pas question de bombarder de requêtes les bases de données contenues dans nos serveurs Cegid », évoque Alaa E. Kay. C’est pourtant une pratique courante avec la plupart des outils ETL.

Ici, la data factory de Longchamp a fait le choix de Fivetran, ce qui lui permet de répliquer les logs avant d’ingérer les données. « Nous pouvons récupérer les données de Cegid vers Snowflake toutes les cinq minutes avec un impact limité sur les performances », assure-t-il.

Elle n’a pas pu reproduire ce pipeline avec les systèmes SAP pour des raisons contractuelles. À la place, SNP Glue est utilisé pour ingérer les données depuis les systèmes de l’éditeur allemand. « La partie ingestion de données n’est plus un défi. C’est l’histoire d’un architecte », affirme Alaa E. Kay.

Dbt Cloud est la plateforme utilisée pour l’orchestration des transformations de données. Une fois terminés, les produits de données stockés dans Snowflake sont exposés à Power BI, à travers des modèles sémantiques liés à Microsoft Fabric.

« Nous savions pertinemment que dbt était un outil qui nous permettrait de prendre ce virage de la “modern data platform”. Quand l’on a utilisé BW et Informatica pendant près de 15 ans, c’est compliqué de se voir faire autre chose. Dbt est basé sur SQL, ce qui rassure tout le monde ».

Dans un premier temps, les escouades étaient principalement formées d’experts dbt recrutés chez les partenaires, dont Devoteam. Toutefois, les responsables BI en faisaient partie pour apporter leurs connaissances des données et des métiers.

En outre, un cycle de formation avec été lancé avec dbt et Infinite Lambda. « Cela nous a permis de nous approprier les technologies et surtout d’adopter les mécanismes DevOps qui ne sont pas dans les habitudes des équipes “legacy” ».

Le cycle de formation a pris fin il y a peu. « L’interface de dbt Cloud simplifie la logique DevOps pour des personnes qui n’ont pas l’habitude de manipuler plusieurs versions de pipelines, de “merger” des projets ou de créer des branches », juge Alaa E. Kay. « Elles livrent désormais des pipelines avec assurance, en pleine connaissance de tout le potentiel de la solution ».

Il fallait toutefois gérer une contrainte inhérente aux entrepôts de données modernes. Selon le responsable BI, les clés primaires dans Snowflake sont représentées par des métadonnées qui ne garantissent pas totalement l’intégrité des données. « Nous avons mis en place des mécanismes des tests en amont des phases d’ingestion et en aval des phases de transformation pour nous en assurer », indique Alaa E. Kay.

Pour ce faire, son équipe utilise les informations contenues dans dbt Cloud. En outre, elle a mis en place la plateforme d’observation des données de l’éditeur français Sifflet. « Sifflet est un outil assez utile pour détecter les éventuels retards ou problèmes de performance dans nos pipelines d’ingestion ». Petit à petit, des critères de qualité du code et des données sont ajoutés dans les pipelines construits sur dbt Cloud.

D’autres projets sont en cours de déploiement. Comme le laisse entendre la mise en production de trois produits de données, Longchamp adopte l’approche Data Mesh. Et elle mêlera bientôt BI et IA.

« Nous avons également l’ambition d’utiliser dbt pour redescendre toutes les métadonnées au niveau des tables Snowflake et pouvoir monter un modèle sémantique prêt pour Cortex ou Snowflake Intelligence », termine Alaa E. Kay.

Crédits photo : Gaétan Raoul pour LeMagIT – Boutique Longchamp des Champs Élysées.

Pour approfondir sur Datawarehouse