Air Liquide construit un Hub LLM pour pousser l’adoption de l’IA générative
Air Liquide mise sur un Hub LLM multitechnologies pour ses projets d’IA générative et agentique. L’un des premiers cas d’usage, un chatbot, accélère l’intégration et la formation des équipes financières. Ce n’est qu’une étape avant le déploiement progressif d’agents IA pour automatiser le traitement d’une partie des millions de transactions annuelles.
Fournisseur de gaz, de technologies et de services pour l’industrie, Air Liquide compte 2 millions de clients dans le monde. Les premières occurrences d’intelligence artificielle, le groupe les a implémentées dans certains de ses processus industriels depuis près de trente ans. Toutefois, il n’a réellement déployé sa stratégie « Data » qu’au cours de ces dix dernières années.
« Depuis deux – trois ans, nous avons accéléré l’adoption des différentes technologies d’IA », affirme Fabien Mangeant, Chief Data & AI Officer chez Air Liquide. « Notre objectif principal est de gagner en efficacité sur l’ensemble de notre chaîne de valeur, en matière de consommation d’énergie, de transformation, de livraison et de compréhension des besoins clients », relate-t-il.
Un focus porté sur les processus financiers
Avec 2 millions de clients, mais aussi plus de 2 millions de patients accompagnés à domicile, l’entreprise traite plusieurs dizaines de millions de transactions chaque année. Les activités de contrôle financier et des opérations sont bien évidemment au cœur de son activité.
Air Liquide a déployé de longue date un ERP SAP dans son organisation, mais la DSI souhaitait aller au-delà de la plateforme de l’éditeur allemand sur le scope financier. Il s’agissait de doter le GBS (Global Business Services) d’Air Liquide d’outils plus performants.
« Notre GBS représente un millier de personnes localisées dans plusieurs pays », renseigne Fabien Mangeant. « Notre premier défi consistait à adopter un fonctionnement multilingue, tant pour nos clients que pour les collaborateurs amenés à traiter les transactions », poursuit-il. « Nous avions aussi à gérer les nombreux ERP qui portent ces transactions et la volumétrie de données associées ».
L’industriel souhaitait automatiser en partie ces activités. Ses systèmes sont interconnectés, mais ils dialoguent parfois mal les uns avec les autres. Outre les multiples réplications de données à gérer, ces intégrations imposent de nombreux contrôles humains. L’IA doit appuyer des équipes responsables de ces tâches pour ensuite les repositionner sur des activités à plus haute valeur ajoutée.
« Pour parvenir à cet objectif, il faut s’appuyer sur des connaissances et des pratiques réparties dans le monde qu’il faut pouvoir rassembler », souligne le responsable. « De plus, l’activité d’un GBS ou d’un BAC (Business Activity Centre) est généralement marquée par un fort turn-over. Cela implique un temps d’adaptation pour toutes les personnes qui arrivent dans ces centres. C’est une contrainte que nous avons complètement intégrée à notre programme IA ».
L’approche imaginée par l’équipe de Fabien Mangeant se décompose en 3 étapes : la première est d’acculturer tous les collaborateurs à l’utilisation de l’IA. Gemini pour Workspace a été déployé dans l’espace de travail Google des 65 000 collaborateurs d’Air Liquide. Sur des cas d’usage plus complexes, l’équipe IA développe des assistants spécifiques en s’appuyant sur la plateforme de l’éditeur français Prisme.ai. Le Crédit Agricole a également intégré cette solution dans sa pile technologique. Enfin, des systèmes d’IA plus complexes sont élaborés pour porter les opérations du groupe, les activités clients et les traitements transactionnels.
« Ces IA doivent à la fois apporter de la valeur, être gouvernables par l’IT, offrir de la confiance et favoriser l’adoption des utilisateurs. Enfin, nous devons garder notre souveraineté technologique », liste le Chief Data & AI Officer d’Air Liquide.
Un chatbot en support du centre de services de l’industriel
L’industriel déploie une stratégie agentique sur le long terme. En attendant, le premier produit IA mis en ligne par l’équipe de Fabien Mangeant est un chatbot. Celui-ci a pour mission d’apporter un support aux collaborateurs des services financiers sur leurs processus et procédures. « De nouveaux collaborateurs sont régulièrement onboardés dans le GBS et l’objectif est que tous suivent les mêmes processus de haut niveau », décrit le responsable. « Ceux-ci sont formalisés dans de multiples documents, mais tous les lire et organiser une formation reste un défi ».
Tous les collaborateurs du GBS peuvent poser leurs questions au Bot « Process & procédure » en langage naturel. Celui-ci retrouve l’information demandée à partir de la base de connaissances constituée au préalable. Le « Golden Dataset » (jeu de données de référence) permet de préqualifier ses réponses afin d’assurer leur qualité et, donc, l’adoption de l’assistant. Ce chatbot repose sur la technologie Prisme.ai.
Prisme.ai est un des composants du Hub LLM imaginé par Fabien Mangeant, mais Air Liquide est aussi membre de l’European Trustworthy Foundation. Il participe avec les grands industriels français, aux travaux de confiance.ai, pour créer des IA industrielles de confiance. L’équipe de Fabien Mangeant travaille avec la startup safen.ai qui industrialise les briques du programme confiance.ai.
Le chatbot a été déployé en plusieurs langues et obtient de bons retours. Désormais, place à un déploiement à l’échelle internationale. « La valeur délivrée par ce projet est claire », avance Fabien Mangeant. « Là où il nous fallait six mois pour former les nouveaux arrivants, il nous faut plus que trois mois », se réjouit-il. « Nous avons pu consolider toutes les sources d’information et rendre les documents relatifs au processus accessible depuis un seul canal ».
La mise en œuvre de la plateforme Prisme.ai a permis à l’équipe de Fabien Mangeant de se concentrer sur les aspects métiers de l’IA. « Notre travail est clairement d’aider les métiers à comprendre leurs données et nous concentrer sur la valeur ajoutée que vont pouvoir générer leurs cas d’usage », déclare-t-il. « Opérer une plateforme et développer de nouvelles fonctionnalités techniques ne font pas partie de notre mission de base ».
La gestion des connaissances redevient une priorité stratégique
La qualité des données est bien évidemment un élément clé dans la réussite d’un tel projet. Le Knowledge management est redevenu un projet stratégique. Chez Air Liquide, tous les systèmes ainsi que les procédures de gestion des documents ont été passés en revue.
« Il faut disposer de plusieurs briques technologiques pour éviter les duplications de données, s’assurer du concours des experts », mentionne Fabien Mangeant. « La qualité des données est clairement un “Go/No Go” sur ce type de projet : si la donnée n’est pas prête, on ne peut lancer un projet IA », alerte-t-il.
« Nous fournissons des outils et notre support pour que les utilisateurs nettoient leurs données et aillent vers une gestion de la connaissance gouvernée », poursuit-il. Le délai avant le lancement du projet est alors très variable selon la disponibilité et la qualité des données. Cela peut fréquemment demander plusieurs mois pour que les données soient jugées suffisamment qualitatives pour lancer un projet.
Ce chatbot n’était qu’une première étape. Avec les données centralisées sur les processus financiers, l’équipe va pouvoir aller vers l’IA agentique et automatiser des traitements liés aux ERP. « Créer un agent représente de deux à trois mois de travail, depuis la phase de conception jusqu’à l’implémentation », estime Fabien Mangeant.
Sur ce premier projet, l’équipe a dû suivre la courbe d’apprentissage de la plateforme, comprendre les données et mettre en place les modèles opérationnels. Pour passer à l’échelle, d’autres éléments demanderont l’attention des équipes.
Le responsable évoque notamment l’implication des métiers, dont le rôle est clé en matière de gouvernance des documents. Il faudra aussi qualifier les données qui alimenteront les systèmes d’IA responsable d’une partie de l’automatisation des processus.
