
Erin Cadigan - stock.adobe.com
Docker Compose s’accorde à l’IA agentique
Docker étend les spécifications de Compose pour y intégrer les agents IA. Cette initiative vise à aligner le développement agentique sur les flux de travail déjà maîtrisés par les équipes DevOps.
Docker Compose, introduit pour la première fois en 2014, utilise des fichiers spécifiques basés sur YAML pour définir et exécuter des applications multi-conteneurs. Cette spécification open source a été ajoutée en 2020. Elle normalise le format de fichier Compose, organisé sous des éléments de haut niveau tels que les services, les réseaux, les volumes de stockage, les données de configuration et les secrets. Cette semaine, elle a le droit à un nouvel élément de premier niveau : les modèles d’IA.
Déployer des agents IA avec Docker Compose
Les utilisateurs de Docker Compose peuvent désormais définir l’appel à de grands modèles de langage (LLM), de les connecter à des outils via le protocole Model Context Protocol (MCP) et de configurer des agents à l’aide de plusieurs frameworks au sein du même fichier Compose.
Ils peuvent également les déployer sur des services cloud à l’aide de la commande « Docker Compose up ». Comme avec n’importe quelle autre application conteneurisée. Pour accompagner cette mise à jour, Docker a étendu son partenariat avec Google Cloud. Une nouvelle commande « gcloud run compose up » doit favoriser le déploiement des agents IA sur les instances de la filiale d’Alphabet.
Selon les analystes du secteur, l’intégration des applications d’IA, y compris des agents d’IA, dans le cycle de développement logiciel, constituera une avancée significative pour les entreprises. De son côté, Gartner anticipe l’abandon de 40 % des projets d’agents IA d’ici à 2027.
« Définir l’ensemble de l’application dans un seul fichier YAML est une condition préalable essentielle pour que le pipeline de diffusion puisse gérer le code de l’application et les modèles d’IA comme deux parties d’un seul tout qui doivent être diffusées de manière synchronisée », déclare Torsten Volk, analyste à l’Enterprise Strategy Group, une filiale d’Omdia [propriété d’Informa Techtarget, également propriétaire du MagIT]. « La synchronisation de l’IA, probabiliste, avec le code applicatif, déterministe, est le seul moyen d’obtenir des résultats fiables de manière cohérente », tranche-t-il. « C’est également essentiel pour mettre à l’échelle les applications d’IA agentique au sein de l’entreprise ».
Docker prendra en charge les frameworks CrewAI, Embabel, ADK de Google, LangGraph, Spring AI et Vercel AI SDK avec les intégrations Docker Compose. Les déploiements d’agents IA utilisant des fichiers Docker Compose sur Microsoft Azure Container Apps seront bientôt disponibles, selon les responsables de Docker.
L’éditeur introduit une autre nouvelle fonctionnalité appelée Docker Offload. Celle-ci donne aux utilisateurs de Docker Desktop un accès local aux GPU hébergés dans le cloud de Docker pendant la phase de conception et de développement d’agents IA. Docker a lancé Docker Build Cloud en 2024 pour déporter vers le cloud les phases de compilation ou de « builds ».
Enfin, l’entreprise a open sourcé MCP Gateway, introduit en avril sous le nom de MCP Toolkit. MCP Gateway est en disponibilité générale avec la version 4.43 de Docker Desktop depuis le 3 juillet. La passerelle doit sécuriser les échanges entre les agents IA et les outils, un problème bien cerné par les analystes de sécurité.
Le développement de l’IA bouleverse la gestion multicloud
Étant donné que sa passerelle MCP et la spécification Compose sont open source, les utilisateurs d’AWS peuvent les combiner. Toutefois, un analyste considère qu’une prise en charge officielle pour le cloud d’Amazon sera essentielle.
« Peut-être qu’une startup ferait ce travail d’intégration », commente Larry Carvalho, consultant indépendant chez RobustCloud. « Mais sans le support du fournisseur cloud, je ne vois aucune entreprise le lancer ».
Dans l’ensemble, l’analyste réitère ses remarques. Docker et son produit commercial Desktop doivent continuer à démontrer leur valeur au-delà de la clientèle existante pour rester pertinents dans la course à l’IA.
La dynamique du cloud évolue en raison de l’IA générative, ajoute-t-il. Si Google Cloud, Azure et AWS restent dominants, des fournisseurs tels qu’Oracle Cloud Infrastructure ont enregistré une forte croissance cette année. CoreWeave, un néocloud axé sur l’IA, a été le premier ce mois-ci à recevoir les dernières puces Blackwell Ultra de son partenaire Nvidia. Cela pourrait ébranler encore plus le marché. Parallèlement, les déploiements sur site et autogérés des charges de travail d’inférence IA semblent gagner du terrain auprès de certaines entreprises.
Tout cela crée un potentiel en matière de gestion multicloud pour des éditeurs tels que Docker. Pour s’en saisir, les représentants de l’entreprise doivent proposer une plateforme neutre et centralisée servant à développer et déployer des applications d’IA. Il convient d’étendre la prise en charge de Compose à travers un maximum de partenariats, recommande Larry Carvalho.
Composer avec davantage de fournisseurs
« Docker a une bonne histoire en ce qui concerne l’abstraction de la complexité, mais elle pourrait en avoir une meilleure », lance-t-il.
Docker fait partie du réseau de partenaires AWS et du programme AWS ISV Accelerate.
« Bien que nous n’ayons pas officiellement annoncé de partenariats d’intégration avec AWS, Oracle ou IBM actuellement pour Compose, nous sommes activement en discussion avec les principaux fournisseurs de cloud, y compris AWS, pour explorer une collaboration plus approfondie, en particulier lorsqu’elle profite aux flux de travail réel des développeurs », indique un porte-parole de Docker dans une déclaration envoyée par courriel cette semaine à Informa TechTarget.