
Azure AI Foundry : Microsoft muscle son jeu pour l’IA agentique
La plateforme GenAI de Microsoft devient le centre du déploiement des agents IA et de l’IA agentique à travers l’offre Agent Service. Une solution de bout en bout, déjà bien dotée, mais encore concentrée sur le monde Microsoft.
Les agents et l’IA agentique ont presque volé l’attention préalablement réservée aux grands modèles de langage. Non pas que l’actualité des fournisseurs de LLM n’intéresse plus les entreprises, mais elles cherchent maintenant à déployer ces systèmes plus ou moins autonomes.
Les équipes sous l’égide de la DSI n’ont pas forcément attendu que les fournisseurs cloud dessinent précisément leurs offres. En parallèle, des acteurs comme AWS, GCP et Azure ont petit à petit enrichi leurs offres.
En ce sens, lors de Microsoft Build, la firme de Redmond a annoncé une actualisation d’Azure AI Foundry (ex- AI Studio) afin de supporter ces cas d’usage. La plateforme aurait déjà été utilisée par plus de 10 000 clients, dont Heineken et Fujitsu.
Azure AI Foundry Agent Service, une annonce structurante
Azure AI Foundry Agent Service entre en disponibilité générale. Ce service managé doit permettre de « concevoir, déployer » et pousser à l’échelle des agents IA. Agent Service s’accompagne de templates, d’actions et de plus de 1400 connecteurs « sources » (et pas cibles). Les « agents » peuvent être déployés sur les applications Microsoft 365 (Teams, Office), sur Slack et Twilio.
En préversion, un catalogue rassemble l’ensemble des agents IA développés, avec un lien vers le dépôt GitHub ou Azure DevOps associé.
Les LLM ne sont jamais loin. Un tel projet par la sélection d’un point de terminaison vers un grand modèle de langage. En la matière, Microsoft a ajouté Flux pro 1.1, le controversé Grok 3 et a prolongé son contrat avec Mistral AI pour héberger et vendre les LLM de la startup française à ses clients. Son accès à la plateforme Hugging Face permettrait de compléter le catalogue Foundry (environ 1900 modèles) avec 10 000 modèles concoctés par la communauté.
Si le fine-tuning n’est pas forcément très populaire au sein des organisations, Microsoft y intègre des recettes LoRa, QLoRa (pour les LLM compressés) et DPO (Direct Preference Optimization, la technique la plus utilisée pour aligner les résultats d’un LLM avec les préférences humaines).
Dans Agent Service, après avoir sélectionné le LLM — standard ou fine-tuné — il est possible d’entrer une série d’instructions, de sélectionner la température, le top P et de connecter des bases de connaissances. Par défaut, Azure n’affiche que les services AI Search, Fabric, Bing, SharePoint, mais il semble possible d’étendre cette connectivité vers des bases de données vectorielles.
À ce titre, Microsoft met en avant Agentic Retrieval, une fonctionnalité en préversion publique d’Azure AI Search. Elle s’appuie sur des LLM pour subdiviser les requêtes des utilisateurs afin d’exécuter plusieurs recherches en parallèle pour enfin présenter un résultat. Selon les tests menés en interne, cette méthode impliquerait une hausse de 40 % de la pertinence des réponses à des questions complexes ou incluant plusieurs volets.
Ensuite, le développeur peut ajouter des actions : un interpréteur de code, l’accès à une API OpenAPI 3.0, une fonction Logic Apps. Pour l’instant, le fournisseur n’a pas présenté de connecteurs vers des solutions tierces.
Dès lors, il est possible de connecter un agent à d’autres, et de leur associer des outils.
Microsoft prend en charge MCP et A2A (mais surtout MCP)
Sous le capot, Microsoft a pris deux décisions : unifier ses frameworks agentiques Autogen (l’un des premiers du genre) et Semantic Kernel, mais aussi prendre en charge Model Context Protocol (MCP) et Agent2Agent (A2A).
En préversion dans AI Azure Foundry, MCP est en disponibilité générale dans Copilot Studio et le géant du cloud prévoit d’ajouter des serveurs dédiés associés à Semantic Kernel, Dataverse, Dynamics 365, et Windows 11.
Concernant MCP, Microsoft est entrée au comité de direction du projet open source. La firme a déjà contribué des standards de gestion des identités des agents AI. Cette spécification permettrait de gérer l’accès aux agents AI à des outils tiers à travers Entra ID (ex-Azure AD) ou un autre outil SSO.
Ces capacités sont la fondation d’Entra Agent ID, un service en préversion pour Copilot Studio et Azure AI Foundry. Chaque agent a le droit à un identifiant unique. Dans la console d’Entra ID, un administrateur pourra voir tous les agents, peu importe s’ils sont développés dans l’un ou l’autre des environnements. Une vue détaillée permettra d’explorer à quoi ces agents ont accès (outils, bases de données, API, etc.) au sein d’une organisation
Microsoft participe également au développement d’un service de découvertes de serveurs MCP à travers leurs registres. De son côté, l’entreprise propose NLWeb, un projet open source visant à ajouter une interface conversationnelle à n’importe quel site web.
Pour l’instant, A2A – développé par Google – n’est pas aussi développé. Il est disponible en préversion à travers Azure AI Foundry et Azure Copilot.
Revenons à Agent Service. Une fois la phase de configuration passée, les développeurs peuvent passer dans un « playground » afin de vérifier le comportement de l’agent.
En préversion, ils peuvent y consulter des « traces précises » sur les actions du système agentique. Dans la console, elles sont présentées comme des éléments JSON. Microsoft s’appuie clairement sur OpenTelemetry et s’inspire de l’interface d’outils comme Signoz.
Prompts en entrées, réponses en sorties, outils ou agents appelés et messages transmis : le suivi est plutôt complet. Mais contrairement à ce qu’affirme Microsoft, le système ne montre pas encore les étapes de raisonnement intra-LLM. Il affiche seulement une « chaîne » d’entrées-sorties, les échanges entre les LLM.
Automatiser la surveillance des agents IA
S’il n’a pas de solutions pour l’effet « boîte noire », le géant du cloud a présenté deux outils censés limiter la casse.
En préversion, « l’évaluateur d’agents » doit vérifier « automatiquement » si l’agent créé par un développeur suit les instructions et utilise correctement les outils à partir d’une suite d’exemples traités en batch. Résolution d’intention, précision de l’appel aux outils, adhérence à la tâche, cohérence, fluidité, présence de vulnérabilités dans le code généré, génération de contenu violent, sexuel, non équitable, protégés par IP, attaques indirectes : l’outil dispose déjà d’un bon lot de détecteurs.
Également en préversion, un agent nommé AI Red Teaming Agent s’appuie sur le framework PyRIT open source (Python Risk Identification Tool) développé en interne pour simuler des attaques par exemples contradictoires, mesurer un taux de succès des attaques et générer une carte des risques et vulnérabilités associés à un agent et son LLM. En parallèle, Azure AI Foundry est déjà intégré au CNAPP Microsoft Defender for Cloud.
Ces évaluations assistées par l’IA peuvent également être supervisées à l’aide de traces, de métriques et de logs. Elles sont facturées 20 dollars pour 1 million de tokens en entrée, et 60 dollars pour 1 million de tokens en sortie.
Les porte-parole affirment par ailleurs que les garde-fous afin d’éviter que les agents révèlent des informations personnelles ou confidentielles ou actives des « tâches interdites » ont été améliorés.
Une offre de bout en bout, qualités et défauts inclus
Enfin, des outils comme Microsoft Purview, Saidot et Credo AI peuvent servir à gouverner les agents, non seulement les voir, mais y appliquer des règles en vue de respecter l’AI Act, assure le fournisseur.
« Microsoft veut être votre pile de développement agentique », remarquent les analystes de Constellation Research.
Tout en s’appuyant sur un ensemble de briques open source, le géant du cloud veut couvrir le développement d’agents et de systèmes agentiques de bout en bout.
Tout, ici, tourne autour des services Azure. Les premiers déploiements d’envergure mettent en lumière des architectures mutlicloud et le recours aux briques open source. Dans certains cas, c’est un choix délibéré, pour limiter les dépendances aux fournisseurs. Microsoft pourrait rétorquer que c’est l’absence de solutions managées suffisamment complète qui peut justifier le recours à des déploiements « maison ». D’autant que d’autres entreprises qui se frottent à la complexité de ces tendances technologiques peuvent attendre une suite comme Azure AI Foundry.
« Microsoft pousse largement [l’IA générative et agentique] dans l’ensemble de ses offres », affirme Holger Mueller, analyste chez Constellation Research. « C’est probablement la conférence Build la moins centrée sur les développeurs jamais organisée. Mais Microsoft doit intégrer l’IA dans toutes ses plateformes, bien évidemment dans Azure, sa couche de données avec Fabric, et n’oublions pas Windows et Edge ».