Plus autonomes que les IA traditionnelles, les agents intelligents doivent être encadrés dès leur mise en place pour limiter les risques et éviter les dérapages… voire le chaos.
L’intelligence artificielle agentique est prometteuse. Très prometteuse. Mais l’autonomie des agents peut aussi devenir une faiblesse si elle n’est pas encadrée par des garde-fous techniques et organisationnels.
Dans les faits, peu d’entreprises ont mis en production des systèmes d’IA agentique. Et pour beaucoup, ces projets en sont encore au stade de l’expérimentation. Mais les agents IA peuvent, en théorie, s’échanger des données entre eux et progresser vers un objectif sans supervision humaine complète.
D’où la nécessité de bien les encadrer.
Ev Kontsevoy, directeur général de la plateforme de gestion d’identités Teleport, estime que cela n’est pas forcément une nouvelle. « Nous disposons déjà des théories nécessaires en matière de contrôle d’accès, appuyées sur des bases mathématiques solides. Il n’y a donc rien à réinventer », assure-t-il
Une bonne pratique est d’assigner une identité à chaque agent IA – qui ne doivent pas fonctionner de manière anonyme. Il faut ensuite appliquer des restrictions, liées à ces identités, sur les données auxquelles chaque agent peut accéder.
Du point de vue des garde-fous, cela peut être bien plus complexe à mettre en place que la réussite ou l’échec de la mise en œuvre d’un assistant Copilot sur les laptops.
« Lorsque la politique de contrôle d’accès est violée, c’est [presque toujours] à cause d’identités fragmentées », explique Ev Kontsevoy. « C’est à cause de cette fragmentation des identités que les pirates arrivent à exploiter les failles et à faire que des agents IA se comportent de manière inappropriée. »
Le deuxième besoin est la normalisation de la manière dont les agents accèdent à l’information. Le protocole MCP (Model Context Protocol), proposé fin 2024 par Anthropic, permet par exemple de structurer la manière dont les applications transmettent du contexte aux LLMs – notamment pour la création d’agents, de workflows complexes ou pour l’interopérabilité.
« MCP a été adopté extrêmement rapidement », explique Ed Kontsevoy. « Et même si [MCP] n’était pas fourni avec une implémentation de référence, la spécification elle-même est suffisamment ouverte pour y ajouter un contrôle d’accès. »
Ne pas multiplier les agents sans garde-fous
De son côté, IBM recommande de poser des garde-fous à différents endroits : au niveau des modèles, des outils et de la couche d’orchestration.
Peter van der Putten, responsable du laboratoire IA chez Pegasystems, invite pour sa part les entreprises à ne pas aller trop vite en besogne, justement pour prendre en compte cette dimension.
Commencez par des cas d’usage avec un seul agent, observez leurs performances et intégrez correctement ces agents dans votre architecture IT, dans vos workflows, dans vos règles métier, avec le contexte approprié et les bons droits d’accès, etc. Comparez ensuite avec le résultat attendu : les agents travaillent-ils correctement et atteignent-ils leurs objectifs ?
Peter van der Putten suggère d’utiliser le process mining pour analyser les « vrais » workflows (et pas ceux décrits sur le papier dans les procédures) et bâtir les agents sur cette base. Ensuite, mettez l’humain dans la boucle pour analyser ce qui va et ce qui ne va pas.
Ce n’est que de cette manière que l’on peut construire une application qui fonctionne de manière prévisible en production, résume Peter van der Putten.
Bien choisir ses agents
L’expert invite également à sélectionner des agents différents, adaptés à chaque tâche, par secteur ou par métier.
Dans le domaine de l’assurance, un agent peut évaluer les risques, un autre les sinistres, tandis qu’un autre encore interagit avec d’autres employés ou même avec un client final. Dans ce cas, un agent axé sur la vente est-il la bonne solution ? Cela dépend également. Vous avez besoin de l’agent qui convient le mieux au contexte.
Un agent au-dessus des autres agents peut « comprendre » les tâches ou workflows spécifiques à appeler (ou non) dans une situation donnée. Enfin, un agent situé en bout de chaîne vérifiera le travail. Et en cas d’impasse, il faut « passer la main à l’humain ».
Ce n’est qu’après ce pré-travail qu’il est possible d’envisager des systèmes multiagents dans lesquels des agents spécialistes dans des tâches particulières communiqueront entre eux.
« Ces outils ont besoin de processus, de règles et de politiques clairs, ou de modèles d’IA non génératifs qui évaluent la probabilité d’une fraude ou d’un problème similaire », résume Peter van der Putten. « Donner leur du contexte, ayez une image complète de la situation et du besoin », conseille-t-il pour bien encadrer cette technologie.
Mesurez les bénéfices
Pour Simon James, directeur IA chez Publicis Sapient, il faut voir ces outils comme des versions intelligentes de la RPA.
L’objectif : cartographier les processus, identifier ceux qui peuvent être confiés à une IA, et élaborer un cadre clair et cohérent.
« Plus vous donnez de choix à un agent, plus vous augmentez le risque de dérapage – en grande partie parce que des agents vont dialoguer entre 20 systèmes. »
Simon JamesDirecteur IA, Publicis Sapient
Mais il prévient : « Plus vous donnez de choix à un agent, plus vous augmentez le risque de dérapage – en grande partie parce que des agents vont dialoguer entre 20 systèmes ».
Dominic Wellington, directeur marketing produit IA chez SnapLogic, avertit lui aussi : « Beaucoup découvrent encore l’IA agentique “à la dure” ». Et la méfiance grandit. « Des juristes et des responsables de la conformité sont de plus en plus impliqués. Ils posent des questions difficiles avant d’approuver la mise en production. Il est tellement facile de monter un projet qui a l’air cool, mais nous constatons des taux d’abandon épouvantables. Entre la moitié et 80 % des projets n’atteignent jamais le stade de la production ».
Le problème vient souvent de l’élargissement du périmètre : les données qui ont permis au PoC de fonctionner ne suffisent plus en production. Et lorsqu’un projet commence à toucher aux données critiques (base client, ERP, CRM, etc.), il faut impérativement revoir… les politiques d’accès. Encore et toujours.
Chez AstraZeneca, par exemple, « il serait inconcevable que le pipeline de développement médicamenteux se retrouve dans les données d’entraînement d’un modèle. »
« Je n’ai jamais besoin de remonter très loin dans mon fil d’actualité pour voir qu’un avocat a encore cité une jurisprudence qui n’existe pas, parce qu’il a demandé à ChatGPT sans vérifier. Et il n’y a pas que les avocats », raconte Dominic Wellington. « Il est essentiel d’avoir des IA “ancrées dans la réalité” », c’est-à-dire cantonnées ou tout du moins nourries dans une base de connaissance.
« Un agent n’est fiable que si les données sur lesquelles il repose le sont aussi. »
Sunil AgrawalRSSI de la plateforme d’IA Glean
Des technologies comme le RAG permettent de vectoriser les données pertinentes, tout en maîtrisant ce que le modèle peut voir ou répondre. Avec le masquage des données, les accès basés sur les rôles et le contrôle de la Qualité de Service, « on peut aller plus loin », lance Dominic Wellington.
Mais la vigilance reste de mise. Les défis vont de l’éthique à la transparence, en passant par la sécurité, la responsabilité, la confidentialité, les biais ou encore l’explicabilité. Or, comme pour le cloud, le cycle d’engouement puis de désillusion autour de l’IA va très vite. « C’est parfois la deuxième vague, plus discrète, qui montre la bonne direction », conclut-il.
Un dernier point (le premier par ordre d’importance), pour la fiabilité des agents, est la qualité des données.
« Un agent n’est fiable que si les données sur lesquelles il repose le sont aussi », confirme Sunil Agrawal, RSSI de la plateforme d’IA Glean qui prévient sur les injections de prompt, les tentatives de jailbreak ou les manipulations de modèles.
Autant de menaces qui nécessitent des défenses spécifiques. Avec, de surcroît « une gouvernance solide [qui] reste la meilleure garantie pour un usage sûr, éthique et conforme [des agents IA] », prévient-il.
Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM