Cisco : « La mise en réseau des IA va relancer le Web3 »
La cellule incubation de l’équipementier planche sur une manière d’aller chercher sur Internet des LLM spécialisés dans des domaines différents, afin de les faire travailler en équipe sur la résolution d’une tâche complexe.
La mise en réseau des IA devrait permettre de ressusciter le Web3, ce machin à base de contrôle décentralisé sur lequel se mobilisaient tous les hommes d’affaires de la Tech avant qu’on leur parle de ChatGPT. Telle est la prédiction d’Outshift, la cellule d’incubation des technologies de demain de l’équipementier Cisco.
« En 2024, le marché a commencé à comprendre qu’un modèle d’IA gigantesque conçu pour savoir répondre à des questions très compliquées était finalement assez inefficace, comparativement à la conjugaison de plusieurs petits modèles, chacun spécialisé dans un domaine particulier. Nous travaillons donc à faire collaborer des agents d’IA spécialisés », explique Guillaume de Saint-Marc, le patron de l’ingénierie d’Outshift (en photo en haut de cet article), lors de l’événement Cisco Live qui s’est récemment tenu à Amsterdam.
« Et comme ces agents viendront tous d’un éditeur différent, avec des contrats d’usage différents et des tarifs différents, mais qu’ils devront négocier en temps réel, nous allons a priori utiliser quelque chose qui existe, mais qui n’a pas été utilisé : le fonctionnement du Web3 », lance-t-il !
Détail important, Guillaume de Saint-Marc insiste pour dire que la mise en réseau des IA n’a rien à voir avec de simples appels à des API, comme le font déjà les développeurs quand ils veulent envoyer des requêtes à un LLM et recevoir ses réponses.
« Dans le principe, il s’agit de soumettre une question compliquée à un LLM. Celui-ci la découpe en sous-problèmes qui peuvent être résolus séparément. Puis, il choisit tout seul les autres LLM qui traiteront chacun un sous-problème. Si vous codez cela avec des API, vous obtenez une architecture figée, où tout est câblé en dur. Au contraire, notre idée est que ce soit fluide, élastique. La question de départ doit pouvoir générer dix, cent, mille inférences différentes, sur des services dont l’utilisateur n’a même pas connaissance », dit le responsable d’Outshift.
Et de préciser : pour que cela fonctionne, il faut que les LLM dialoguent entre eux en langage naturel, pas en codes informatiques.
Monter des équipes d’IA pour chaque question posée
Au-delà du concept, le travail de Cisco est surtout ici de concevoir l’architecture réseau qui va permettre aux LLM d’avoir connaissance les uns des autres, de parlementer pour savoir qui s’occupe de quelle partie du problème, sous quelles conditions (langue, tarif, délais…). Une architecture réseau qui doit aussi, in fine, récupérer toutes les réponses pour que le LLM de départ puisse les assembler.
« Les IA doivent annoncer au monde ce qu’elles savent faire, être référencées dans un annuaire à la manière d’un DNS. »
Guillaume de Saint-MarcV-P engineering, Outshift, Cisco
« Il s’agit ni plus ni moins que de créer l’Internet des IA. Parce que les problématiques relèvent de ce que l’on connaît en réseau. Les IA doivent annoncer au monde ce qu’elles savent faire, être référencées dans un annuaire à la manière d’un DNS. Leurs communications doivent être établies, fiabilisées. Et, au-dessus de cela, il faut pouvoir définir des règles de sécurité, avoir des moyens d’observabilité pour s’assurer que l’équipe des IA fonctionne comme on le souhaite », expose Guillaume de Saint-Marc.
« Leurs communications doivent être établies, fiabilisées. Et, au-dessus de cela, il faut pouvoir définir des règles de sécurité, avoir des moyens d’observabilité pour s’assurer que l’équipe des IA fonctionne comme on le souhaite. »
Guillaume de Saint-MarcV-P engineering, Outshift, Cisco
En pratique, il s’agira de définir des standards non pas au niveau des LLM, mais à celui de leurs agents. Les agents sont les modules frontaux – potentiellement le chatbot, mais pas uniquement – qui ont la possibilité d’agir sur autre chose (enclencher une opération de sauvegarde quand l’IA décide par exemple qu’il est temps de le faire).
Guillaume de Saint-Marc assure qu’il s’agira d’un projet Open source, Cisco se disant convaincu qu’il n’y a pas d’autre moyen pour qu’une technologie espère se standardiser sur Internet.
« À terme, nous confierons la tutelle de ce projet à une fondation Open source, mais nous devons faire nos preuves avant. Et, en la matière, l’humilité est de circonstance : je suis tout de même en train de vous dire que nous allons essayer de créer un Internet de l’IA sur la base d’échanges entre des IA qui ne sont pas déterministes, qui ne seront ni vrais, ni faux, mais peut-être à 80 % vrais », glisse-t-il.
Une première approche serait de partir de MCD, Model Context Protocol, le protocole qu’Anthropic a mis au point pour permettre à un agent de communiquer avec plusieurs LLM et même d’autres agents. De l’agrémenter d’un protocole de cheminement de raisonnement, similaire à APL, Agent Protocol LangGraph, mis au point par l’éditeur LangChain, spécialisé dans l’outillage Open source des modèles.
« Ce sont des bases techniques pour travailler. Mais à ce stade, nous ne travaillons même pas encore sur le protocole. Nous travaillons sur les manifestes, les cartes d’identité des agents, sur la manière de répertorier les agents disponibles dans le monde pour qu’ils puissent se retrouver. Et c’est cela qui sera inspiré du Web3 », assure Guillaume de Saint-Marc.
Il ajoute : « les technologies du web3 nous permettraient même de confier un portefeuille aux agents, pour qu’ils puissent acheter eux-mêmes du temps de calcul à d’autres services d’IA », ajoute-t-il.
L’exemple des outils d’administration système plus performants
Évidemment, Cisco espère bien commercialiser des applications au-dessus de son Internet Open source des IA. Guillaume de Saint-Marc en évoque deux : l’administration du réseau – du réseau Ethernet classique, cette fois-ci, l’infrastructure des datacenters – et son observabilité.
« La combinaison de plusieurs agents devrait nous permettre de résoudre des problèmes récurrents chez nos clients, comme le besoin de faire des plans de tests sur tout un enchaînement d’équipements. »
« Bien évidemment, les agents, s’ils sont éparpillés sur Internet, ne pourraient pas agir directement sur les switches physiques qu’une entreprise veut administrer. En revanche, dans notre idée, il serait assez simple de confier à un premier LLM un jumeau numérique du réseau local sous forme de base de données en graphe. Puis, les nœuds de cette base en graphe seraient distribués à des IA spécialisées. »
« À la fin, le LLM de départ saurait comment configurer le réseau, par exemple en assemblant toutes les réponses des agents sous la forme de processus Infrastructure-as-Code », illustre notre interlocuteur.
De la même manière, l’observabilité gagnerait en efficacité à confier toutes les métriques du réseau local à une IA qui les redistribue par lots thématiques. Là, les informations des serveurs aux agents spécialisés dans l’administration serveur. Là, les informations du stockage aux agents spécialisés en stockage… À la fin, le diagnostic d’un problème n’en serait que plus précis. Guillaume de Saint-Marc acquiesce lorsque LeMagIT lui demande si de telles fonctions pourraient être publiées sous la marque Splunk.