Looker_Studio - stock.adobe.com

IA agentique : AWS étoffe son framework AgentCore

Dans le cadre de son événement re:Invent 2025, AWS a annoncé l’extension de son framework agentique, AgentCore afin, selon les termes de ses porte-parole, de fiabiliser les agents IA. Son adoption rapide repose moins sur la promesse de valeur ajoutée que sur la centralisation des usages.

Présenté en préversion en juillet, puis lancé en disponibilité générale en octobre, AgentCore rassemble une série d’outils pour bâtir des agents IA au sein de Bedrock. Les utilisateurs peuvent s’appuyer sur les LLM et le framework open source de leur choix, dont CrewAI, LangGraph, LLamaIndex et StrandAgents. Néanmoins, le SDK associé à AgentCore aurait déjà été téléchargé plus de deux millions de fois.

Policy : l’IA neurosymbolique appliquée aux agents IA

Deux nouvelles fonctionnalités font leur apparition en préversion. D’abord, Policy doit permettre de définir des règles rassemblées dans des collections appelées « des moteurs de règles ». Une collection est associée à une passerelle API AgentCore. Cette gateway est une surcouche par-dessus des serveurs MCP, des API et des fonctions Lambda cibles rendu accessibles aux agents IA à travers le protocole Model Context Protocol. En clair, il s’agit d’exposer des outils, des applications, des traitements spécifiques.

Les règles servent à deux choses : surveiller les appels aux outils et y appliquer des conditions d’usage. Dans les deux cas, AgentCore Observability doit aider à surveiller le fonctionnement des agents IA.

Ces règles peuvent être créées en langage naturel. L’outil fourni par AWS convertit les instructions en Cedar, un langage open source conçu pour créer des autorisations de type RBAC ou ABAC. « Nous l’utilisons depuis quelques années dans d’autres services », indique Sébastien Stormacq, responsable des relations développeurs chez AWS, lors d’un point presse. Les connaisseurs de Cedar peuvent eux-mêmes rédiger les collections visant à accepter ou refuser les appels vers les API, les serveurs MCP ou les fonctions Lambda.

« Par exemple, si l’on développe un agent capable de rembourser des clients insatisfaits, il ne faut pas qu’il fasse n’importe quoi », illustre Sébastien Stormacq. « L’on peut ainsi fixer des montants maximums ou des motifs de non-remboursement ». L’autorisation est réalisée à partir de tokens temporaires Oauth. En revanche, ces autorisations ne seront données qu’aux agents IA déployés à l’aide de la passerelle d’AgentCore. Si, au cours du processus, un agent tiers, par exemple hébergé sur Microsoft, décide d’utiliser le mauvais outil, cette information ne remontra pas dans la console d’AWS.

Le fournisseur s’était affiché l’année dernière en adepte de l’IA neurosymbolique, c’est-à-dire (à gros trait) la combinaison de réseaux de neurones (les LLM) et d’un moteur de règles. Il ne fait que prolonger son plan, d’abord appliqué à son architecture RAG. De fait, les modèles de langage fournissent des résultats probabilistes qu’il faut pouvoir contrôler en production.

Ensuite, AgentCore Evaluations comprend une liste d’évaluateurs pour suivre le comportement des agents IA avant et après leur déploiement, au besoin en temps réel. Les treize évaluations « communes » doivent permettre de calculer des scores de précision, d’efficacité des appels d’outils, de sécurité, de taux de succès ou encore de la pertinence du contexte. Les résultats des évaluations sont importables dans CloudWatch. Cette capacité est compatible avec les agents IA conçus avec AgentCore et d’autres. Les entreprises peuvent créer leurs propres évaluations. Dans les deux cas, c’est un LLM as-a-judge qui effectuera la notation. Une fonctionnalité similaire existait déjà dans Amazon Bedrock. Les fonctionnalités de base semblent encore basiques en comparaison de ce que peut faire un acteur comme Giskard.

Donner aux agents IA une mémoire à long terme et une voix

En outre, AgentCore Memory permet d’ajouter une « stratégie de mémoire à long terme » aux agents IA. Le service proposait déjà d’utiliser des approches basées sur les préférences des utilisateurs, sur la sémantique (pour extraire des informations factuelles au sein d’un corpus documentaire) et sur les résumés des conversations au sein des sessions.

« La mémoire à long terme permet de suivre les interactions [avec les agents IA] au fil du temps », explique Rahul Pathak, vice-président Data & IA chez AWS, lors d’un point presse. « A contrario, l’idée de la mémoire épisodique est de pouvoir la superposer à un contexte spécifique sur le déroulement de ces interactions, afin que les agents puissent faire des recommandations plus intelligentes. Le souvenir de moments particuliers peut donc être superposé à l’état automatiquement sauvegardé en mémoire vive ».

Et Rahul Pathak de donner l’exemple d’un agent de réservation de voyage qui pourrait se souvenir qu’un voyageur a précédemment raté une correspondance entre deux vols. Il pourrait alors sélectionner des billets lui permettant de bénéficier d’un délai plus confortable pour prendre son avion à temps.

Dans le runtime d’AgentCore, charger d’exécuter le code des agents, il est également possible de gérer des fonctions de streaming bidirectionnelles, une capacité nécessaire pour que les agents vocaux répondent en temps réel. Techniquement, il s’agit de prendre en charge WebSocket, un protocole utilisé par la plupart des modèles speech to speech.

Guerre des frameworks ou de la valeur ajoutée ?

Beaucoup des acteurs du marché ont déjà réuni des fonctionnalités similaires. Google Cloud, par exemple prend en charge les mêmes frameworks open source, a un système d’identité pour les agents IA, supporte partiellement le streaming bidirectionnel et dispose d’un éventail d’options pour gérer la mémoire des agents IA depuis Vertex AI. Microsoft s’appuie davantage sur les technologies JavaScript et .NET, mais propose des capacités peu ou prou équivalentes à tout ce que liste AWS. MuleSoft et Salesforce ont fait de même.

« AWS poursuit son développement méthodique d’AgentCore », estime Holger Mueller, analyste chez Constellation Research, dans un billet de blog. « Il s’agit d’un élément clé pour les cadres des entreprises, car en 2026, les adeptes avancés de l’IA seront confrontés à la bataille des frameworks d’IA », entrevoit-il. « Qui permettra à l’entreprise de créer des applications de nouvelle génération basées sur l’IA qui aideront à automatiser [les processus] et à réduire les coûts ? ».

Selon Julien Grouès, vice-président de l’Europe du Sud chez AWS, le sujet est moins de sélectionner le framework ou la base technologique. Le fournisseur a fait en sorte de mettre au point un service suffisamment ouvert vers l’extérieur. Non, les entreprises chercheraient d’abord à rassembler l’ensemble des projets d’IA agentique au sein d’une seule plateforme. Ce serait particulièrement le cas de celles qui ont déjà des engagements avec AWS.

« Je ne peux pas comparer parce que je ne connais pas l’offre d’Azure ou de Google, et vous dire si oui ou non nous le faisons mieux qu’un autre », déclare-t-il. « En revanche, les entreprises nous ont demandé d’avoir un environnement sécurisé dans lequel elles peuvent déployer, contrôler, gérer les agents, pour toute l’organisation pour ne pas se retrouver avec de nombreux systèmes disparates à piloter. Et c’est pour cela que l’adoption [d’AgentCore] a été extrêmement rapide ».

Une phase transitoire de rationalisation de l’adoption, donc.

Toutefois, d’après Keith Kirkpatrick, directeur de recherche chez The Futurum Group, cette uniformisation des plateformes rend difficile la lecture du marché pour les décideurs IT. Les arguments technico-marketing copiés-collés y participent grandement. L’analyste s’attend à ce que les DSI, sous la pression du COMEX, élèvent leurs exigences dès l’année prochaine. « Les fournisseurs devront encore démontrer en 2026 que cette technologie peut apporter une véritable valeur ajoutée à l’entreprise », écrit-il, dans un billet de blog. « Les DSI et les autres acheteurs s’attendront à ce que l’accent soit mis sur la manière dont l’adoption de l’IA agentique se traduit réellement par une augmentation du chiffre d’affaires ou de la rentabilité », insiste-t-il.

Pour approfondir sur IA appliquée, GenAI, IA infusée