saxoph - Fotolia
IA agentique : la « géopolitique du logiciel » se joue désormais dans l’orchestration
Une nouvelle bataille industrielle se dessine : celle du contrôle des couches d’orchestration et d’observabilité. Lors d’un échange entre McKinsey et Elastic, les deux acteurs ont décrit une recomposition du paysage logiciel, avec des risques de dépendance technologique pour les entreprises.
« On sent bien que la couche de vérification, d’observabilité et d’orchestration va avoir une importance critique ». Invité à une table ronde dans les locaux parisiens d’Elastic, un éditeur qui se dirige doucement, mais sûrement vers ce domaine, Arnaud Tournesac, directeur associé chez McKinsey, prévoit une nouvelle bataille dans l’IT. Avec l’enjeu sous-jacent : « notamment en termes de future lock-in pour les entreprises et les DSI », ajoute-t-il.
Cette couche intermédiaire – celle qui supervise, trace, coordonne et sécurise l’action des agents – devient stratégique avec le passage à l’échelle des projets d’IA et l’arrivée des agents IA.
« C’est aussi pour cela que vous voyez Azure, AWS, Salesforce, ServiceNow, et tous les autres dire qu’ils vont essayer d’être le futur orchestrateur de ces agents », observe le consultant.
Orchestration et observabilité, nouvelles fondations de l’agentique
Cette compétition s’explique par la complexité des systèmes agentiques.
Yannick Fhima, directeur Data et IA chez Elastic France, rappelle qu’« on ne peut pas déployer des agents comme ça, sans contrôler ». Un agent repose sur des outils, sur un LLM chargé de comprendre la demande, puis sur une logique de sélection et d’enchaînement d’actions. Mais à mesure que les scénarios se sophistiquent, les risques augmentent.
« Demain, plusieurs agents vont interagir entre eux », anticipe-t-il. « Au début, nous allons avoir des interactions [simples] entre un agent qui choisit un outil, puis qui répond. Mais plus tard, cette même question va appeler deux à trois agents. »
Cette multiplication des interactions pose des questions très concrètes : « Que se passe-t-il si l’agent a un code erreur, qu’il s’arrête, qu’on arrive à des problèmes où il faut intervenir ? » D’où la nécessité de mécanismes de contrôle.
« Il faut donc monitorer et avoir un fallback ou un failover – que ce soit un processus d’escalade vers un humain ou une redondance d’agent », insiste Yannick Fhima.
Pour lui, cette complexité rend l’orchestration « capitale », également pour contrôler les coûts de fonctionnement de l’IA et assurer la confiance dans cette technologie.
Le risque d’un nouveau verrouillage technologique
Pour McKinsey, celui qui maîtrisera ces briques devient un point de passage obligé. « Cette couche est critique », martèle Arnaud Tournesac, car elle conditionne la gouvernance, la sécurité et l’évolution des agents. Elle concentre donc un pouvoir considérable.
Le parallèle avec les plateformes cloud ou les ERP est implicite. L’agentique pourrait installer un nouveau niveau de dépendance. La question n’est plus seulement de savoir quels agents déployer, mais sur quelle plateforme d’orchestration ils fonctionneront, et avec quel degré de réversibilité.
Deux approches opposées dans la conception des agents
Au cœur de cette bataille, Elastic décrit également deux grandes philosophies techniques qui structurent les projets actuels.
« Il y a eu différentes approches », explique Yannick Fhima. La première repose sur « un seul agent qui gère 25 ou 30 outils ». La seconde privilégie « plusieurs agents qui reposaient chacun sur 5-6 outils ».
Les retours d’expérience pencheraient clairement en faveur de la spécialisation. « La chaîne qui a spécialisé les agents est la plus précise en termes d’exécution », affirme-t-il. À l’inverse, « avec celle où il y a beaucoup d’outils, il y a une perte de contexte et d’exécution ».
Ce constat renforce encore l’importance de l’orchestration, car plus les agents sont nombreux et spécialisés (et ils le seront donc), plus leur coordination devient critique.
Observabilité, confiance et maîtrise des coûts
L’observabilité s’impose aussi comme un prérequis à la confiance. « L’utilisation de LLM a un coût qui, à l’échelle, devient non négligeable », rappelle Yannick Fhima. D’où la nécessité de « monitorer ces tokens, de mesurer le ROI de manière globale », mais aussi de vérifier « la véracité en sortie de ce que l’on récupère de toute la chaîne ».
McKinsey confirme. Et s’applique à lui-même cette exigence en interne. « Nous faisons un gros travail pour monitorer la sortie de chaque agent et tracer la logique qu’il a eue pour prendre la décision », acquiesce Arnaud Tournesac. Le cabinet consacre « beaucoup de temps en amont » à coder le contexte et à documenter les étapes qui conduisent à une décision, afin de sortir de l’effet « boîte noire ».
Une bataille encore ouverte
Le marché n’en est qu’à ses balbutiements. « [La maturité] n’est pas encore tout à fait là », reconnaît Yannick Fhima. Même constat côté McKinsey. « Des choses vraiment à l’échelle, sur du processus critique, vous n’en trouvez pas des dizaines. », concède Arnaud Tournesac.
Mais les lignes bougent vite. À mesure que les agents se multiplieront et s’interconnecteront, la valeur se déplacera vers ces couches de supervision, d’orchestration, d’observabilité et de gouvernance.
C’est là que se jouera ce que l’expert de McKinsey appelle la nouvelle « géopolitique du logiciel ». Et c’est là que les entreprises et leurs DSI devront être les plus vigilantes, pour éviter une dépendance de leurs architectures agentiques.
