arthead - stock.adobe.com

Model Context Protocol : « le port USB-C » des agents IA créé par Anthropic fait des émules

Le protocole de communication open source entre les outils et les modèles d’IA générative, développé par Anthropic, laissait les analystes dubitatifs. Son adoption par un ensemble d’acteurs IT, dont Microsoft et OpenAI, donne raison au fournisseur de LLM qui compte ouvrir, à terme, la gouvernance du projet.

En novembre 2024, Anthropic annonçait Model Context Protocol, un protocole ouvert, sous licence MIT, dont l’objectif est de « standardiser la manière dont les applications livrent du contexte au LLM ». Le fournisseur de LLM le présente comme « le port USB-C des applications IA ».

Techniquement, cette architecture client-serveur doit permettre de partager des informations contextualisées avec les LLM, d’exposer des outils et de bâtir des flux et des intégrations « composables ».

La communication entre l’hôte (l’application et le LLM), les clients (connecteurs) et les serveurs (contextes, base de données, outils) est réalisée à l’aide du protocole JSON-RPC 2.0.

À son annonce, le projet avait laissé les analystes dubitatifs : pour qu’un standard naisse, une communauté doit s’accorder sur son adoption et son développement. D’autant que MCP n’était compatible qu’avec les modèles d’Anthropic et que les spécifications de sécurité n’étaient pas encore totalement définies.

MCP : Microsoft, Cisco, IBM et OpenAI adhèrent, Google s’interroge

En cinq mois à peine, MCP a convaincu les éditeurs et les fournisseurs IT. Cisco, WSO2, Codeium, Replit, IBM, Jetbrain, Stripe, mais aussi Microsoft et OpenAI, sont quelques-uns des éditeurs à adopter le protocole.

Kagent de Solo.io, Dapr Agents, mais aussi le framework Java Spring maintenu par VMware Tanzu, intègrent MCP dans leurs projets liés aux agents IA. Docker inc. maintient des implémentations de références de MCP pour utiliser différentes technologies conteneurisées.

Le 19 mars, Microsoft a annoncé l’intégration de MCP dans Copilot Studio en préversion. « Lors de la connexion à un serveur MCP, les actions et les connaissances sont automatiquement ajoutées à l’agent et mises à jour au fur et à mesure de l’évolution des fonctionnalités. Cela simplifie le processus de création des agents et réduit le temps consacré à leur maintenance », écrit Zankar Desai, principal product manager chez Microsoft, dans un billet de blog.

« MCP est passé d’une lueur dans les yeux de Justin Spahr-Summers et David Soria Parra, [...] à un standard ouvert florissant avec des milliers d’intégrations qui ne cesse de croître. »
Mike KriegerChef product officer, Anthropic

Le 26 mars, OpenAI a intégré MCP dans son kit de développement consacré aux agents, le rendant de facto compatible avec ses propres LLM.

« La prise en charge de ChatGPT Desktop et des API responses sera bientôt disponible ! », écrit Sam Altman, cofondateur et dirigeant d’OpenAI sur X (ex-Twitter).

« MCP est passé d’une lueur dans les yeux de Justin Spahr-Summers et David Soria Parra, l’année dernière, à un standard ouvert florissant avec des milliers d’intégrations qui ne cesse de croître », se réjouit Mike Krieger, chef product officer chez Anthropic. « Les [serveurs] MCP sont plus utiles lorsqu’ils se connectent aux données que vous avez déjà et aux logiciels que vous utilisez déjà. J’ai hâte de voir ce que les gens connectent avec Claude, et bientôt avec ChatGPT ». Une annonce également saluée par Aaron Levie, CEO de Box.

Une popularité telle que Sundar Pichai, directeur général de Google, se demande sur X : « [adopter] MCP ou [ne] pas [adopter] MCP, telle est la question. Dites-le-moi dans les commentaires ».

C’est, selon Holger Mueller, analyste chez Constellation Research, « la question de 2025 ».

« Il s’agira de savoir si les LLM prendront en charge les outils d’entreprise ou si les éditeurs de logiciels vont bâtir leurs propres moyens de se connecter aux LLM […] », déclare-t-il, dans un billet de blog. « La seconde option offre plus de contrôle au fournisseur (et donc au client), tandis que la première est plus facile du point de vue de la R&D », poursuit-il. « Cependant, un éditeur [souhaitant infuser l’IA générative] devra investir dans la création d’outils pour plusieurs LLM. MCP pourrait devenir la norme pour simplifier cet aspect ».

Vers une gouvernance ouverte

C’est l’une des idées partagées par Anthropic et la communauté dans la feuille de route consacrée à Model Context Protocol qui « envisagent une normalisation » à travers un organisme officiel, de type ISO.

Avant cela, il faudra formaliser l’organisation autour du projet. Anthropic entend « favoriser un écosystème collaboratif dans lequel tous les fournisseurs d’IA peuvent contribuer à façonner MCP en tant que norme ouverte grâce à une participation égale et à une gouvernance partagée, en veillant à ce qu’il réponde aux besoins des diverses applications et cas d’usage de l’IA ».

En janvier dernier, Justin Spahr-Summers, membre des équipes techniques d’Anthropic, considérait qu’il était encore trop tôt pour que MCP rejoigne une fondation open source.

« Le bon compromis [...] consistera à confier la gestion du projet à une fondation ou à un comité, mais peut-être à un stade de maturité plus avancé. »
Justin Spahr-Summers Membre des équipes techniques d’Anthropic

« Nous craignons qu’une telle gouvernance communautaire n’entraîne beaucoup de frais généraux et ne freine l’élan du projet », argumentait-il le 8 janvier 2025.

« À un moment donné, le bon compromis pour la neutralité vis-à-vis des fournisseurs et l’appropriation par la communauté consistera à confier la gestion du projet à une fondation ou à un comité, mais peut-être à un stade de maturité plus avancé », ajoutait-il.

Rendre MCP le plus accessible possible

En attendant, les modifications de MCP sont de nature à favoriser son adoption par une plus large population de développeurs. La mise à jour du protocole publié le 26 mars a apporté la prise en charge d’un framework d’autorisation et d’authentification basé sur Oauth 2.1 et le remplacement du couple HTTP+SSE par la couche de transmission de données Streamable HTTP (plus simple à manipuler et à déployer).

MCP prend en charge les lots JSON-RPC, ainsi qu’un système d’annotations pour décrire les outils et leur comportement, des informations précieuses pour le LLM.

En outre, Model Context Protocol ne se limite plus au langage de programmation Python. Des SDK sont disponibles depuis peu pour Kotlin, C#, TypeScript et Java (un SDK développé par la communauté Spring). Les usagers réclament par ailleurs des SDK pour PHP et Ruby.

Au premier semestre 2025, Anthropic souhaite se pencher sur la découverte de services (par exemple avec un registre de serveurs MCP), la prise en charge des opérations stateless, sur l’ajout de paquets standards pour les serveurs MCP, la simplification de la connexion aux outils et le sandboxing.

Le fournisseur a également dans l’idée de proposer un système hiérarchique pour piloter des essaims d’agents à travers une topologie spécifique et des namespaces, de créer un flux de travail standard pour la gestion des permissions et des actions des agents, ainsi que d’un moyen d’obtenir des informations en temps réel sur les opérations les plus longues à effectuer. Il entend par ailleurs supporter des modalités comme l’audio et la vidéo. Anthropic ne prend toutefois pas d’engagement sur la complétion de cette feuille de route.

À plus court terme, le fournisseur souhaite ajouter davantage d’exemples d’implémentations de référence dans la documentation et un moyen plus simple pour participer à l’amélioration du protocole.

Pour approfondir sur IA appliquée, GenAI, IA infusée