Ascannio - stock.adobe.com

AgentKit : OpenAI renforce sa galaxie d’outils autour de ses modèles

Le fournisseur de LLM élargit l’écosystème d’outils et de services autour de ses LLM et son application ChatGPT. En commençant par livrer sa propre approche de la gestion de flux agentiques.

ServiceNow, Salesforce et les autres grands éditeurs ne sont plus les seuls. Lors de sa conférence DevDay à San Francisco, OpenAI a lancé sa suite de développement agentique en direction de 4 millions de développeurs. AgentKit comprend trois briques principales : Agent Builder, Connector Registry et ChatKit.

Elle s’articule autour des LLM, d’outils, de garde-fous, de bases de données vectorielles et le SDK Agents.

Une approche low-code du développement d’agents IA

Accessible en beta, Agent Builder est un outil de conception visuelle de flux de travail agentiques. OpenAI propose des templates et un moyen de conception à base de nœuds à glisser-déposer pour ensuite lier l’ensemble de ces briques applicatives. Les flux qui en résultent peuvent être testés et évalués.

Contrairement à d’autres systèmes qui confient uniquement le routage des requêtes à un LLM, Agent Builder intègre des logiques conditionnelles de type If/Else. Par exemple, cela permet à un LLM superviseur de router une question sur une FAQ si la réponse existe déjà. Le système peut aussi couper court à une conversation si l’agent ne peut pas répondre pour des raisons de conformité. Sinon, une demande qui réclame la recherche d’informations dans une base de connaissances peut être poussée vers l’agent correspondant. Une autre expression du CEL (Common Expression Langage), While, peut être utilisée pour vérifier qu’une condition est toujours vraie. Il est également possible d’impliquer un humain dans la boucle, afin qu’il valide les tâches à effectuer ou les résultats obtenus. Les internautes n’ont pas manqué de comparer AgentKit à N8N, un autre framework propriétaire de création de flux agentiques.

Connector Registry (également en beta) doit permettre de « consolider les sources de données » sous un seul panel à la main des administrateurs. Il contient des connecteurs depuis Dropbox, Google Drive, Sharepoint, et Teams. Ce sont des wrappers maintenus par OpenAI pour l’accès aux services listés ci-dessus. Il est par ailleurs possible de se connecter à n’importe quel serveur MCP distant.

Beaucoup de recommandations, peu de documentation

Pour autant, la documentation fournie par OpenAI pour AgentKit est encore légère. De même, le fournisseur de LLM fait porter l’utilisation des serveurs MCP maintenus et tiers aux développeurs. « Pour les connecteurs, il existe un risque d’envoyer des données sensibles à OpenAI ou de permettre aux modèles d’accéder en lecture à des données potentiellement sensibles dans ces services », soulignent ses ingénieurs.

Concernant les serveurs MCP distants qu’elle ne vérifie pas, OpenAI conseille de bonnes pratiques comme la mise en place systématique d’une validation humaine pour les actions les plus sensibles et la vérification des URL obtenues à travers l’appel aux outils. En outre, le fournisseur recommande le recours à des serveurs officiels, même quand il ne les supporte pas directement. Le contraire réclame une inspection concernant les données transmises.

« Nous vous recommandons également de consigner toutes les données envoyées aux serveurs MCP », ajoutent les ingénieurs d’OpenAI. « Si vous utilisez l’API Responses avec store=true, ces données sont déjà consignées via l’API pendant 30 jours, sauf si l’option Zero Data Retention est activée pour votre organisation. Vous pouvez également enregistrer ces données dans vos propres systèmes et effectuer des vérifications périodiques afin de vous assurer que les données sont partagées conformément à vos attentes ». C’est cette deuxième option que les entreprises et équipes de développement européennes doivent retenir.

Par défaut en Europe, « OpenAI limitera l’inférence et le stockage du contenu client en Europe jusqu’au moment où la communication ou les données sont envoyées au serveur MCP », poursuivent-ils. Aux entreprises de s’assurer que le serveur MCP respecte également toutes les exigences en matière de conservation et de résidentialité des données.

ChatKit, lui, entre en disponibilité générale. Ce n’est pas un front-end qui reproduit l’interface de ChatGPT. C’est un moyen d’embarquer une interface conversationnelle dans une application ou dans un site Web. Evernote, Canva et HubSpot testent déjà la technologie pour déployer des agents IA accessibles aux usagers.

Selon Craig McLuckie, CEO et cofondateur de Statlock, ancien vice-président R&D chez VMware, AgentKit offre « un système unifié pour les interactions de modèles, l’appel d’outils et les événements de streaming ».

« Cela suggère une factorisation propre du système (ce qui est bien, puisque les plateformes durables ont des API bien délimitées) », écrit-il sur LinkedIn. « Mais aucun mot encore sur la prise en charge A2A pour débloquer l’interopérabilité avec d’autres middlewares agentiques ». À court terme, Craig McLuckie n’a rien contre un framework complet, même fermé. Cependant, il conseille aux entreprises de garder la maîtrise dans la conception des agents.

Faire de ChatGPT le centre d’interaction avec les applications grand public

OpenAI propose également une solution inverse : faire venir les applications à ChatGPT. L’Apps SDK, en préversion, permet de construire des applications accessibles à travers la célèbre interface conversationnelle. Le kit de développement s’appuie à nouveau sur MCP. En clair, l’éditeur propose aux entreprises de créer leur propre wrapper par-dessus un serveur MCP que ChatGPT pourra consommer. Il y a moins d’explications techniques que de documentation sur les principes de design et de conception. OpenAI considère que l’échange en langage naturel ne fonctionnera pas avec toutes les applications. Figma, Coursera, Expedia, Spotify ou encore Booking.com seront les premiers à déployer ces applications accessibles par ChatGPT. Il faut dire que le potentiel que représentent les 800 millions d’utilisateurs de la célèbre application de GenAI est très attractif.

OpenAI le sait parfaitement. L’accès aux agents IA par les usagers engendre des enjeux de cybersécurité et d’hallucinations. C’est pourquoi le fournisseur de grand modèle de langage renforce ses outils d’évaluation des LLM. Il est possible de créer des jeux de données qui combinent des feedbacks humains et des informations synthétiques. Ces données servent à créer des évaluateurs automatiques. Ceux-là permettent de tester les agents IA et d’optimiser les prompts, peu importe si le LLM a été entraîné par OpenAI ou non. Des améliorations déjà testées par Bain&Company, Carlyle ou encore Box. OpenAI fournit par ailleurs un moyen d’effectuer l’apprentissage par renforcement de ses modèles afin d’exécuter des appels à des outils spécifiques et d’entraîner des modèles de récompenses.

Parmi les autres annonces de ce DevDay, il faut noter la disponibilité générale de Codex. L’outil concurrent de GitHub Copilot et de Claude Code profite d’une intégration avec Slack. Le LLM sous-jacent, GPT-5-Codex, est également disponible depuis n’importe quel CLI ou à différents endroits de la chaîne CI/CD d’une organisation à travers le SDK Codex. Pour en profiter, un abonnement à ChatGPT est nécessaire. À noter que certaines actions qui n’étaient pas prises en compte dans la consommation de tokens le sont désormais.

Enfin, OpenAI a annoncé la disponibilité de Sora 2 et de GPT-5 Pro à partir de ces API, ainsi que gpt-realtime-mini et gpt-image1-mini. Ces deux modèles doivent permettre de réduire les coûts de 70 et 80 % dans leur catégorie respective (speech to speech et text to image).

Pour approfondir sur IA appliquée, GenAI, IA infusée