L’IA agentique s’invite dans le droit

La legaltech Jus Mundi propose un premier agent IA dédié à l’organisation chronologique de dossiers juridiques. Et elle prévoit de concevoir un système agentique global. Dans le droit comme la publicité en ligne, la maturité est cependant encore faible.

« Agents IA » et « Agentic AI » sont sans conteste les mots vedettes de 2025. Les éditeurs (Microsoft, Salesforce, SAS, Google, ServiceNow, pour n’en citer que quelques-uns) multiplient les annonces, jusqu’à rendre difficile le fait de cerner la notion même d’agent.

« Nous parlons souvent d’IA agentique dans le domaine, mais je pense que nous n’avons pas encore une définition claire de ce que cela signifie exactement », observait, par exemple, David D. Cox, vice-président des modèles IA chez IBM Research, dans nos colonnes.

Des LLM outillés pour accomplir des actions

« Vus de loin, les agents sont des LLM capables d’accomplir des actions », écrivions-nous en février. Le principe des agents trouve des applications dans de nombreux secteurs, dont, depuis peu, celui du droit. Mais la révolution annoncée devrait se faire peu à peu.

« Je pense qu’il est très important pour les juristes de comprendre ce qui se cache sous le capot d’un système d’IA, car si vous ne comprenez pas le système, c’est le système qui vous contrôle. »
Jean-Rémi de MaistreCEO et fondateur de Jus Mundi

Ce printemps, la legaltech Jus Mundi avait en tout cas dévoilé de fortes ambitions en matière d’agentique lors de son AI Summit. Depuis, l’éditeur avance par étape. À terme, Jus Mundi entend développer un système agentique global, mais la startup a commencé par un premier agent, accessible depuis fin avril, et en ciblant une tâche spécifique : l’organisation chronologique de dossiers juridiques.

Par nature, un agent automatise des tâches, mais les professionnels du droit devront aussi s’approprier la dimension technique des agents, estime Jean-Rémi de Maistre, CEO et fondateur de Jus Mundi. Et cela pour une raison simple : en saisir les capacités et les limites.

« Je pense qu’il est très important pour les juristes de comprendre ce qui se cache sous le capot d’un système d’IA, car si vous ne comprenez pas le système, c’est le système qui vous contrôle », prévient l’avocat de métier.

À la différence d’un système d’IA classique, l’agentique ne repose pas sur « une séquence d’étapes et d’instructions que nous donnons au système. Elle repose sur un objectif et des outils qui permettent d’atteindre cet objectif. Puis le système y parvient de manière autonome ».

Un cas d’usage très demandé dans l’arbitrage

Pour ses premiers pas, la startup a donc opté pour la chronologie. « Ce cas d’utilisation a été demandé par beaucoup de nos clients, dont la plupart font de l’arbitrage », justifie Jean-Rémi de Maistre.

Le principe est simple : organiser des documents en grand nombre de manière chronologique pour en faciliter le traitement. Le but est, en particulier, de construire une chronologie de tous les événements procéduraux d’une affaire.

« En général, il faut des heures, voire des jours de travail, pour le faire », souligne le dirigeant. Jus Mundi promet de l’automatiser par le biais d’un agent doté de plusieurs outils, dont un premier dédié au nettoyage des documents et à leur OCRisation.

D’autres outils interviennent dans le processus pour comprendre la signification de toutes les parties du document, extraire des dates, comprendre la signification de celles-ci, puis d’en fusionner certaines pour éviter les doublons.

Lors d’une démonstration, le fondateur de Jus Mundi a ainsi téléchargé 70 documents longs, soumis à l’agent. Le résultat : en quelques secondes, une chronologie de 1 500 événements, qui précise pour chacun le document source et le texte correspondant. « Pour faire cela, un agent est nécessaire », assure-t-il, car la tâche combine complexité et besoin d’autonomie.

De nombreux autres cas d’utilisation des agents dans l’arbitrage

Pour le dirigeant, « il existe de nombreux autres cas d’utilisation des agents dans l’arbitrage ». Mais ces usages doivent être encadrés et même régulés.

« Laisser un juge ou un arbitre utiliser un système d’IA sans aucun contrôle constitue, à mon avis, un risque très élevé », considère Jean-Rémi de Maistre. Premier motif : les biais. Le système juridique lui-même en comporte. Or, ils pourraient être amplifiés si une IA était formée sur des données partiales.

« Laisser un juge ou un arbitre utiliser un système d’IA sans aucun contrôle constitue, à mon avis, un risque très élevé. »
Jean-Rémi de MaistreCEO et fondateur de Jus Mundi

Invité du Jus Mundi AI Summit, Claude Kirchner, président du Comité consultatif national d’éthique du numérique, rappelle que l’IA comprend des biais inhérents à sa phase d’entraînement. Et ceux-ci ont un impact direct sur les résultats finaux.

« Les utilisateurs de systèmes d’IA, en particulier ceux utilisés dans le domaine juridique, doivent en être conscients. Ils devraient pouvoir disposer de systèmes d’IA conçus de manière transparente et équitable », résume la startup.

Cette démarche ne constituerait pas cependant un obstacle aux développements dans l’agentique et à l’adoption de l’IA pour le juridique.

La direction juridique de Centric Software en expérimentation

Marina Stavrinides, directrice juridique de Centric Software, en témoigne. « J’encourage mon équipe à exploiter l’IA au quotidien, même s’il s’agit de tests, pour vérifier tout ce qu’elle fait. Nous n’avons pas d’outils d’IA générative spécifiques. Mais chacun peut utiliser ce qu’il veut », explique la juriste de l’éditeur de logiciel.

« Nous utilisons également un outil de gestion du cycle de vie des contrats, qui est alimenté par l’IA. Il est très simple. Il nous permet de stocker nos contrats et de suivre le processus contractuel tout au long du processus », poursuit-elle.

En ce qui concerne l’agentique, l’adoption en est encore à ses prémices. L’ambition est de « bientôt commencer à l’utiliser », notamment en tirant profit de l’IA embarquée dans le logiciel de gestion du cycle de vie des contrats déployé dans l’entreprise.

« Il s’agit essentiellement d’outils qui vous permettent de redéfinir les contrats en utilisant vos propres règles internes et de prendre des décisions par vous-même. Nous sommes donc en train de le tester », précise Marina Stavrinides.

Pour elle, les tâches à faible valeur ajoutée et répétitives sont les premières ciblées sur ces usages. L’examen d’accords de non-divulgation figure parmi les tâches candidates.

« En utilisant ces outils, vous pouvez optimiser une opération qui prend beaucoup de temps et qui a peu de valeur. Et nous pouvons l’utiliser avec succès. C’est l’un des cas d’utilisation que nous testons actuellement. »

Un avocat associé à l’IA dans 10 ans

Mais Romain Lerallut, vice-président et directeur du Criteo AI Lab, avertit cependant que l’IA dans le juridique est une matière très sensible.

L’expert est un observateur avisé. L’IA (non agentique) est très présente dans le quotidien des équipes de l’adtech Criteo. Elle sert aussi bien à l’analyse de documents juridiques et réglementaires, qu’à la synthèse de réunions ou à générer du code.

Pour ses opérations, Criteo est en outre un utilisateur avancé de l’intelligence artificielle. L’automatisation est essentielle dans son activité en raison des volumes colossaux de publicités à diffuser sur Internet. « Nous touchons quotidiennement près d’un milliard de personnes », chiffre-t-il. Et surtout, les usages de l’IA dans ce domaine sont facilités par un faible niveau de risque, au contraire de métiers plus sensibles comme le droit.

« Il y a peu de risques… Je veux dire par là que si je vous recommande une paire de chaussures et que vous vouliez en fait une chemise ou un yaourt, ce n’est pas grave. Cela ne met pas votre vie en danger », illustre Romain Lerallut. Si un risque existe, c’est celui de perdre « un peu d’argent si notre système prend de mauvaises décisions, mais ce n’est pas un risque énorme au sens juridique du terme », considère-t-il. « Et si nous mettons quelque chose en production, nous savons en quelques secondes si cela va fonctionner ou non. Nous pouvons le faire très rapidement, avec un risque très faible. »

Il en va tout autrement dans le juridique où, pour limiter les risques, la supervision humaine reste indispensable. D’ailleurs, pour Jean-Rémi de Maistre de Jus Mundi, d’ici 10 ans, le métier d’avocat n’aura certainement pas été supplanté par la machine. « Il ne s’agira plus d’un avocat, ou d’une machine, mais d’une collaboration entre les deux », assure-t-il.

Pour approfondir sur IA appliquée, GenAI, IA infusée