Jakub Jirsk - Fotolia

Comment Abeille Assurances cultive ses projets GenAI

Abeille assurances est en train de mettre en production ces premiers cas d’usage d’IA générative à l’échelle de l’entreprise. Ils concernent la prise d’informations sur les produits et la détection de fraude dans les factures. Malgré les affinages nécessaires, le directeur de la data science de l’assureur estime qu’il y a un boulevard immense pour l’IA agentique.

Fondée en 1856, Abeille Assurances est membre du groupe Aéma, issu du rapprochement d’Aésio et de la Macif en 2021. L’entreprise distribue ses produits (assurance auto, habitation, santé, prêt immobilier, épargne, obsèques) à travers un réseau de 1000 agents généraux d’assurance, ainsi que des partenaires courtiers, entre autres. Elle décompte près de 3 millions de clients et a réalisé un chiffre d’affaires de 8,5 milliards d’euros en 2025.

Comme la majorité des assureurs, Abeille Assurances a lancé ses premiers de statistiques avancées, puis de machine learning il y a plus de dix ans. Historiquement, ces traitements sont supervisés par l’équipe Data Science au sein de l’entité dommages et Santé.

« Nous ne faisons pas partie de la DSI », précise Xavier Munoz, directeur de la data science chez Abeille Assurances. « Au sein de la direction Dommages et Santé, nous travaillons avec l’ensemble des métiers et en étroite collaboration avec la DSI qui déploie les projets ».

Il n’y a pas à proprement parler de direction des données centralisée chez Abeille Assurances, mais une Data Factory. « Elle a vocation à mettre à disposition des utilisateurs en interne l’ensemble des données à travers notre entrepôt et les outils pour les traiter », renseigne Xavier Munoz. Du fait de son expertise, l’équipe Data Science joue donc un rôle de chef d’orchestre pour la mise en œuvre des projets IA.

Au machine learning s’ajoute depuis trois ans l’IA générative. L’équipe mène plus particulièrement deux projets phares. « Chronologiquement, le premier projet concerne l’identification des fausses factures », relate le directeur de la data science.

OCR et LLM au service de la détection de fausses factures

Selon le cabinet SIA partners, rien que dans l’assurance auto, la fraude représenterait plus de 1 milliard d’euros par an en France, soit 5 points de marge brute du secteur. « Pour une entreprise qui émet plus de deux milliards d’euros de primes d’assurance [2,2 Mds € en 2025, N.D.L.R], c’est un enjeu de taille », souligne le responsable.

Traditionnellement, ces sujets font l’objet de traitements par machine learning. Le responsable estime que pour d’autres types de détections de la fraude, les modèles de type gradient boosting et random forest sont efficaces. D’autant qu’il faut généralement examiner quelques pour cent des cas gérés par une assurance. Par exemple, en matière d’automobile, la fraude représente environ 1 % des sinistres. Mais la combinaison de l’IA générative et de l’OCR promettait d’aller plus loin en matière de fraude à la facture au sein des agences.

« Nous “OCRisons” le document, puis nous utilisons l’IA donc pour interroger et récupérer les données et les mettre dans des bases de données structurées », détaille Xavier Munoz. « Ensuite, nous effectuons un certain nombre de contrôles, dont des contrôles de cohérence interne à la facture ainsi que des données présentes dans nos bases et dans des bases publiques ou celles de nos partenaires ».

Il peut s’agir de vérifier que le numéro d’immatriculation d’un véhicule réparé correspond bien à celui d’un client. Le système peut vérifier le numéro SIRET d’artisans ou de mécaniciens et de s’assurer qu’ils sont toujours en activité, qu’il n’y a pas d’erreurs de saisie.

La reconnaissance du texte n’est pas effectuée avec un modèle de langage-vision. L’équipe data science d’Abeille assurances a d’abord testé le modèle open source Tesseract, avant d’exploiter Textract, le service d’un des fournisseurs cloud privilégié par le groupe, AWS. Abeille Assurances est client d’AWS depuis dix ans, depuis les premiers sujets de migration vers le cloud.

« Nous avions déjà personnalisé le modèle, créé un flux pour préparer les documents. Un de nos contacts chez AWS nous a parlé de Textract lors d’un bootcamp. Nous l’avons sélectionné rapidement », informe le directeur de la data science chez Abeille Assurances.

Une évaluation portant sur une centaine de factures mettant en compétition Tesseract, Textract et des outils disponibles en interne a permis de confirmer la pertinence du service d’AWS.

Le bootcamp a surtout été l’occasion de choisir les modèles de langage servant à effectuer les précontrôles de cohérence et les extractions de données. « Là aussi, nous avons fait des comparaisons. Nous avons choisi de déployer les modèles Claude d’Anthropic depuis le service Bedrock de notre partenaire AWS. Nous les utilisons en production », indique Xavier Munoz.

« AWS nous accompagne surtout sur les sujets d’IA depuis deux ans et clairement ça a été extrêmement utile et productif », considère-t-il. « Nous avons des points hebdomadaires avec eux, mais également des rendez-vous ad hoc où ils vont nous présenter certaines nouveautés, certaines évolutions ».

Un chatbot et un système RAG pour interroger la documentation des produits

Le deuxième sujet concerne le développement d’un chatbot interne propulsé par un grand modèle de langage, doublé d’un système RAG.

« Il doit permettre aux équipes souscriptions au siège et aux agents d’assurance à répondre aux questions sur nos produits, sur la base de nos documents internes », explique le directeur data science.

Les équipes informatiques ont développé une interface simple pour que les utilisateurs posent des questions, obtiennent une réponse sourcée et puissent soumettre des feedbacks.

« Le chatbot ne fournit qu’un seul résultat. Nous faisons le lien vers le ou les documents qui ont été utilisés et vers la ou les bonnes pages », développe le responsable.

Quand un retour est négatif, l’utilisateur est invité à soumettre un commentaire explicatif.

« Au début, les usagers nous réclamaient des corrections techniques. Ils rencontraient de petits bugs sur la numérotation des pages, mais aujourd’hui les retours concernent le fonds des documents », note le responsable. « Nous devons donc les ajuster puisque c’est la base de tout pour générer une réponse valable ».

La direction produits, responsable de la rédaction des documents a été impliquée afin d’effectuer des changements et des améliorations. « C’est une véritable boucle apprenante », se réjouit le directeur de la data science.

Ces changements concernent des tableaux qu’il faut rendre compréhensibles, des formes de documents que le LLM ne sait pas correctement interpréter, ainsi que l’enrichissement d’informations.

« Nous avons aussi découvert que certaines politiques ou pratiques ne sont pas forcément documentées », ajoute Xavier Munoz. « Notre chatbot n’invente pas ce qui n’est pas écrit. C’est le principe même d’un système RAG : si l’information est absente, il n’y a pas de réponse ».

Ces ajouts ne peuvent être faits que par des experts en assurance, juge-t-il. Pour l’instant, pas question de les automatiser. Il faudra probablement planifier des tâches à l’échelle de l’entité produits pour maintenir ces documents à jour plus fréquemment qu’à l’accoutumée. Jusqu’alors, ils étaient mis à jour tous les trois mois environ.

 « Nous sommes en train de passer en production. Les questions sont de plus en plus intéressantes et pointues », commente Xavier Munoz.

L’entreprise a déployé le chatbot au mois de juillet 2025 au niveau du siège. Une quarantaine d’agences y ont accès en phase pilote, avant un passage en production progressif prévu pour juin 2026.

Dans l’assurance, « un boulevard immense pour l’IA agentique »

La suite ? « Nous allons déjà mettre en place des fonctionnalités pour permettre aux chabots de récupérer des informations clients, contrats ou sinistres via API », présente le directeur de la data science. « L’étape d’après, effectivement, ce sera l’IA agentique ».

Les premiers projets concerneront probablement la direction des indemnisations. Si les membres de cette direction réclamaient un chatbot, la nécessité de vérifier les garanties et leur attribution aux clients demande « clairement » un flux de travail agentique.

« Il faudra y intégrer le raisonnement de nos collègues de l’indemnisation quand ils gèrent un sinistre », ajoute Xavier Munoz. L’interface, elle, pourrait être un chatbot.

D’autres domaines sont à l’étude pour bénéficier d’un agent IA, dont les gestionnaires de la souscription. De manière générale, le directeur de la data science considère que dans l’assurance « il y a un boulevard immense pour l’IA agentique ».

« Nous gérons des processus qui demandent de lire des documents, de saisir des informations, de respecter des procédures, d’effectuer des contrôles », liste-t-il. Du fait de la multiplication des catégories et des produits, Abeille Assurances pourraient en profiter pour simplifier un ensemble de démarches, jusqu’à certains échanges avec les clients finaux. Avant cela, un chatbot pour répondre aux questions les plus simples en matière de protection juridique est en cours de développement.

Quant aux membres de l’équipe de data science, ils ont très rapidement adopté ChatGPT, puis officiellement Copilot et GitHub Copilot lorsque l’entreprise a mis en place sa politique de gouvernance interne.

« Tout le monde utilise Copilot et GitHub Copilot pour générer du code. Désormais, c’est une évidence. Je dirais même qu’il n’est pas nécessaire, en tout cas pour l’équipe data Science, de pousser à l’usage », remarque Xavier Munoz.

En revanche, l’adoption des IDE agentiques, comme Kiro d’AWS ou celui de GitHub, est perçue comme un peu plus lointaine. Cela demandera une réflexion avec la DSI, maîtresse de ces sujets.

Pour approfondir sur IA appliquée, GenAI, IA infusée