Comment LVMH déploie l’IA à l’échelle

Le célèbre groupe de luxe a mis en place une stratégie afin de déployer à large échelle des modèles de machine learning et de deep learning personnalisés sur plusieurs clouds et dans plusieurs régions.

LVMH, 79,2 milliards d’euros de chiffre d’affaires en 2022, regroupe 76 Maisons de luxe et plus de 196 000 collaborateurs répartis dans six « divisions ».

Le groupe français se distingue dans un large éventail de secteurs, de la mode et de la maroquinerie à la distribution sélective (Sephora, Le Bon Marché), en passant par les parfums, les vins et les spiritueux, les montres et la joaillerie, ainsi que l’hôtellerie et la presse. Il fédère des marques emblématiques telles que Louis Vuitton, Dior, Guerlain, Givenchy, Tag Heuer et bien d’autres. Il revendique un réseau mondial de près de 5 600 points de vente.

« Si le revenu est important, nos Maisons sont très différentes en ce qui concerne leur activité, leur taille, leur modèle de fonctionnement », précise Aurélien Gascon, responsable groupe de l’architecture d’entreprise et des technologies de données chez LVMH, lors d’une intervention au cours de l’événement Everyday AI Paris 2023 de Dataiku.

LVMH inscrit ces différences dans son modèle opérationnel. Il prône une organisation décentralisée visant à garantir « autonomie forte et réactivités aux Maisons ». À la charge du groupe d’orchestrer les synergies entre ses entités, quand cela est pertinent, et de conserver un « équilibre des activités et des implantations géographiques ».

Les fondations « Data » de LVMH et de ses Maisons

La stratégie de traitement de données et de déploiement de l’IA à l’échelle de LVMH embrasse ces spécificités.

« Si nous voulons faire de l’IA, tout le monde ne part pas du même point. Il faut mettre en place des fondamentaux ».
Aurélien GasconHead of Enterprise Architecture & Data Technology, LVMH

« Si nous voulons faire de l’IA, tout le monde ne part pas du même point. Il faut mettre en place des fondamentaux », indique Aurélien Gascon. L’objectif est de « réutiliser, de répliquer finalement d’une Maison à une autre, d’un contexte à un autre » des éléments clés.

La « plateforme Data » du groupe s’apparente davantage à un framework afin d’accélérer les déploiements de cas d’usage allant de la BI à l’IA dans l’ensemble des Maisons.

Dans plus de 24 Maisons et divisions, cette plateforme repose sur le Data warehouse cloud BigQuery.

« Nous avons un socle important autour de BigQuery qui peut être déployé par l’ensemble des Maisons, sachant que chaque Maison a sa plateforme de données qui doit permettre de rassembler progressivement une grande partie des données en un endroit et d’en bénéficier », poursuit le responsable.

En Chine, une dizaine de Maisons s’appuie sur un « écosystème » Alibaba MaxCompute.

Ce regroupement d’outils et de données ne serait pas pertinent sans une gouvernance adéquate, juge Aurélien Gascon.

« C’est bien d’avoir beaucoup de données, mais si l’on ne les gouverne pas, si l’on n’a pas des définitions très claires pour chaque jeu de données récupérées, ce n’est pas très utile », remarque Aurélien Gascon. « Nous sommes en chemin, comme beaucoup d’organisations, mais c’est très important pour accélérer la transformation des activités liées aux données ».

Dès lors, LVMH définit un ensemble de jeux de données, d’indicateurs clés de performance et leur calcul, ainsi que des « attributs client enrichis par l’IA ».

Le groupe met par ailleurs en commun des cursus accessibles aux COMEX, aux métiers et aux équipes « data ». Il dispose de trois écoles en France, aux États-Unis et en Chine et d’un catalogue d’un peu moins de 20 formations allant de l’acculturation à l’apprentissage de tâches de data science avancée. LVMH a organisé une soixante de sessions et a instruit plus de 1 000 collaborateurs.

« C’est un socle sur lequel les petites Maisons et les plus grandes peuvent s’appuyer ».

Le défi de la personnalisation des modèles d’IA

Voilà pour les fondations. Dans un même temps, le groupe poursuit un programme de déploiement de modèles d’intelligence artificielle « pour générer de la valeur à l’échelle », dixit Axel de Goursac, responsable groupe de la data science chez LVMH..

Cependant, LVMH « ne veut pas utiliser n’importe quelle IA et pas n’importe quelle manière », prévient-il. « Nous voulons une IA qui conserve notre ADN de luxe et préserve l’image de nos marques ».

« Nous voulons une IA qui conserve notre ADN de luxe et préserve l’image de nos marques ».
Axel de GoursacHead of Data Science, LVMH

En ce sens, il a annoncé en septembre 2023, lors de son événement parisien Data AI Summit, un partenariat avec le centre Human-Centered Artificial Intelligence (HAI) de l’Université de Stanford. LVMH et le Centre HAI vont collaborer à des projets de recherche « autour de l’IA responsable, la conception centrée sur l’humain, l’interaction homme-ordinateur et les modèles fondamentaux pour développer de nouvelles applications technologiques d’intelligence artificielle dans l’expérience client, la conception produit, le contenu marketing & communication, la fabrication de produit, la gestion des chaînes d’approvisionnement et plus encore », selon un communiqué de LVMH.

« Par exemple, nous voulons augmenter nos conseillers afin qu’ils soient au centre de l’expérience de luxe de nos clients », illustre Axel de Goursac. « Nous voulons augmenter nos employés par une IA qui respecte l’expertise et le savoir-faire de ces intervenants ».

Selon le directeur, cette approche qui ne repose pas sur des briques sur étagère permet de choisir l’ensemble des sources de données, d’établir une modélisation de données adaptée aux besoins métiers spécifiques au monde du luxe et de respecter les exigences du groupe en matière d’IA responsable.

LVMH généralise son approche MLOps

Comme les autres modèles d’IA et de machine learning de LVMH, ceux-là seront idéalement réutilisables et personnalisables suivant les enjeux des Maisons.

« Nous avons construit un algorithme de recommandations personnalisées de produits avec des techniques avancées de deep learning », explique Alex de Goursac. « Pourquoi ? Parce que les standards en provenance du retail ne sont pas adaptés au monde du luxe », note-t-il.

« Nous avons des patterns de données différents, ne serait-ce qu’en matière de fréquence d’achat et de panier moyen », poursuit-il.

« Cet algorithme spécifique au luxe peut être déployé dans les différentes divisions. Les recommandations vont être utilisées dans le “clienteling”, les newsletters personnalisées, pour de l’activation média et dans l’e-commerce ».

Afin de déployer les modèles, LVMH s’appuie sur la plateforme de Data Science de Dataiku.

Certaines équipes au sein du groupe utilisent l’ensemble des fonctions de Dataiku, à savoir la préparation de données, le feature engineering, l’intégration du modèle de machine learning, le post-traitement, et le formatage de résultats en direction de systèmes tiers.

Dataiku est utilisé « pour effectuer du packaging d’algorithmes de manière centralisée ».

« En collaboration avec les Maisons les plus matures qui ont déjà des algorithmes, nous prenons ces briques et nous les rendons modulaires en utilisant, quand le besoin s’en fait sentir, des librairies d’IA avancées : de la vision par ordinateur, des transformers pour le traitement du langage naturel et nous commençons à expérimenter les grands modèles de langage et de diffusion ».

Ces paquets correspondent à des notebooks contenant le code des modèles et les appels aux librairies. Une fois centralisés, les data scientists et les data engineers peuvent aisément modifier les algorithmes suivant le cahier des charges d’une Maison.

« Nous n’envisageons les modèles ni comme des outils à usage unique, ni comme des pilotes, mais comme des actifs à enrichir pendant plusieurs années », insiste Axel de Goursac.

« Nous n'envisageons les modèles ni comme des outils à usage unique, ni comme des pilotes, mais comme des actifs à enrichir pendant plusieurs années ».
Axel de GoursacHead of Data Science, LVMH

Accélérer la disponibilité des algorithmes grâce au low-code

Les modèles packagés sont intégrés dans Dataiku à l’aide de plugins. Ces plugins servent à traduire les pipelines et leurs composants en éléments low-code/no-code, que les data scientists associent à une documentation « détaillée ». « Outre le déploiement possible dans plusieurs Maisons, cela permet une démocratisation des usages auprès de personnes qui ne sont pas forcément data scientists ».

La mise en production est effectuée sur les instances GCP et Alibaba Cloud.  

« La plateforme facilite le déploiement des algorithmes dans les différentes Maisons, sur les différents canaux, dans les différents marchés. Les fonctions de MLOps nous offrent une industrialisation rapide et un run stable », affirme le directeur de la data science.

LVMH a choisi cette approche, car les équipes ont constaté qu’il fallait plusieurs mois pour lancer et terminer un cycle. Par exemple, pour élaborer un modèle de recommandations personnalisées de produits dans une newsletter, il convient d’explorer et de transformer les données sources d’une Maison, de réaliser la modélisation, une série de benchmarks d’algorithmes avant de passer au développement, puis au post processing « afin de bien respecter l’image de marque en sélectionnant les recommandations que l’on souhaite afficher ».

« Une fois l’algorithme packagé, vous pouvez court-circuiter un certain nombre de ces étapes », indique Alex de Goursac. « Nous déployons des algorithmes dans l’environnement Dataiku d’une Maison, nous le connectons à ses données et les utilisateurs peuvent le personnaliser par rapport à leurs données, à leur contexte business spécifique et aux besoins des clients ».

Au lieu de quelques mois, les résultats sont obtenus en quelques semaines, note-t-il.

L’un ne va pas sans l’autre, souligne Aurélien Gascon. « En central et dans certaines Maisons, il y a des usagers avancés qui développent des algorithmes que l’on pourra répliquer ».

Dans d’autres cas, des modèles, certes durables, ne seront pas répliqués au vu de leurs spécificités.

Surtout, pour le responsable de l’architecture d’entreprise, cette approche permet à la fois d’obtenir une gouvernance centralisée des données et des modèles tout en conservant l’autonomie des Maisons.

Pour approfondir sur Intelligence Artificielle et Data Science

Close