Getty Images/iStockphoto
IA agentique : « Pour nous, le plus important est la notion de choix » (Martin Woodward, GitHub)
GitHub mesure déjà les effets de l’IA générative et agentique sur la génération de code, la production de pull requests et leur « merge ». Alors que l’IA accélère le développement et que les modèles évoluent aussi rapidement, Martin Woodward, vice-président des relations développeur chez GitHub, assure que la filiale de Microsoft ne cherche pas à imposer les outils agentiques à ses clients.
Martin Woodward est vice-président des relations développeur chez GitHub. L’ancien développeur d’outils DevOps chez Microsoft, et ex-vice-président de la .NET foundation, explique la position de GitHub concernant l’adoption de l’IA agentique dans les équipes de développement. Selon lui, la filiale de Microsoft n’a pas la volonté d’imposer des modèles de langage et des outils, mais plutôt de jouer le rôle de Hub, puisque les dépôts GitHub sont au centre de la plupart des chaînes d’outils de développement. Par ailleurs, Martin Woodward croit que l’IA générative ne remplace pas les développeurs et les ingénieurs. En fait, leur expérience, leur savoir, leurs goûts sont essentiels dans l’ère de la génération de code, tout comme l’approche DevOps, croit-il.
LeMagIT : Quelle est la plus grande tendance dans le développement logiciel selon vous ?
Martin Woodward : La plus grande tendance actuelle concerne les agents et les flux de travail agentiques avec les développeurs. Cette tendance se manifeste de deux manières. D’une part, nous avons besoin de construire des agents d’intelligence artificielle pour nos clients et nous cherchons comment le faire de la manière la plus efficace possible. D’autre part, et c’est là que je passe le plus clair de mon temps, il s’agit d’utiliser des agents pour créer des logiciels et effectuer des tâches de développement. Les grands modèles de langage et les modèles frontières étant de plus en plus performants, le temps pendant lequel nous pouvons les faire fonctionner sans intervention humaine augmente et la capacité de travail qu’ils peuvent gérer est de plus en plus grande avec le pilotage et l’orientation appropriés.
LeMagIT : Quel est le rôle de GitHub au sein de cet écosystème agentique ?
Martin Woodward : Les développeurs qui travaillent avec des agents IA ont tendance à les utiliser pour itérer sur des tâches de développement spécifique. Ce flux est par nature asynchrone. Il prend du temps. Ce que nous avons découvert, c’est que toutes les personnes qui créent des agents le font avec GitHub au centre, parce que GitHub est déjà ce flux de travail asynchrone que les développeurs ont l’habitude d’utiliser.
D’après mon expérience, les clients veulent se concentrer sur la résolution des problèmes métiers, mais ils veulent aussi s’assurer que tous leurs développeurs sont satisfaits et qu’ils ont le plus grand choix possible, afin de ne pas être bloqués par leurs fournisseurs. Pour eux, GitHub est un véritable Hub, car tout le monde s’y intègre et tous les outils s’y greffent.
C’est pourquoi nous avons présenté Agent HQ en fin d’année dernière. Il s’agit d’apporter une couche pour gouverner tous les agents et pour faciliter le fait que l’agent de chacun soit en quelque sorte basé sur GitHub et qu’il ait ce type de communication asynchrone.
Gouvernance et choix
LeMagIT : Donc la question n’est plus qui apportera le meilleur outil, mais qui contrôlera la couche de gouvernance ?
Martin Woodward : C’est une question très intéressante. Nous voyons que cela a toujours été une tension constante. Ce n’est pas vraiment nouveau. Cela va tout simplement plus vite aujourd’hui parce que le rythme des progrès de l’IA est très rapide en ce moment.
Les anciennes méthodes liées au déploiement IT où une organisation prenait douze à dix-huit mois pour décider de sa plateforme et, ensuite, six mois de plus pour la déployer ne fonctionnent plus. Des modèles sortent tous les six à huit semaines et chacun d’entre eux change la donne en matière de possibilités. Et puis il y a des gens, dont GitHub, qui innovent avec différents plugins, différentes interfaces utilisateur, notre CLI, etc. Nous avons donc tendance à voir les entreprises parier sur la plateforme qui leur offre le plus grand choix. Certains développeurs adoptent en premier les outils au sein d’une organisation. Ils essaient tout, puis ils transmettent leurs commentaires à leurs responsables et à leurs dirigeants, et ils voient ce qu’ils peuvent faire.
Cela permet aux responsables d’orienter leurs achats. Nous, avec GitHub Copilot, nous donnons accès aux LLM les plus performants dont Claude Opus 4.5, OpenAI GPT 5.2 Codex ou Gemini 3 Pro.
Pour nous, le plus important, c’est cette notion de choix. Nous ne voulons pas que les développeurs soient enfermés dans un seul modèle, un seul agent, un seul idéal, une seule façon de travailler. Nous pensons que parce que nous avons un public de développeurs large, il faut pouvoir satisfaire tout le monde.
Nous n’allons pas vous forcer à utiliser une version particulière de VS Code. Des développeurs peuvent vouloir utiliser IntelliJ ou ils peuvent avoir besoin d’un Xcode. C’est pourquoi nous pensons que le choix est la voie à suivre pour que les organisations puissent s’adapter au marché mouvant.
LeMagIT : Y a-t-il une place pour l’IA locale dans le développement ?
Martin Woodward : Nous avons une approche « Bring Your Own Model ». Nous prenons donc en charge un certain nombre d’API qui vous permettent d’appeler soit un modèle sur votre machine locale, soit un modèle installé dans le data center de l’entreprise. Nous sommes donc tout à fait favorables à cette solution. C’est utile dans certains scénarios clés et dans certains secteurs, le secteur de la défense, par exemple, qui est important en France, évidemment. Est-ce une tendance ? Non, pas encore. Les modèles hébergés dans le cloud évoluent très rapidement. L’industrie elle-même voit de nombreux avantages à ne pas avoir à se soucier de leur hébergement et à pouvoir y accéder très facilement. Les LLM hébergés localement ne sont pas aussi performants aujourd’hui. Nous les soutenons. Nous souhaitons vraiment voir des progrès dans ce domaine et c’est là que les modèles open weight stimulent l’innovation, en particulier dans le domaine des modèles locaux. Nous veillons à ce qu’ils soient conformes. Mais en matière de tendances, ce n’est pas la direction que prend l’industrie.
LeMagIT : Les entreprises que nous interrogeons ont tendance à observer des gains de productivité individuels chez les développeurs. Elles semblent avoir davantage de difficulté à rapporter des bénéfices à l’échelle d’un département ou de l’organisation. Constatez-vous la même chose ?
Martin Woodward : Nous observons plusieurs choses. Tout d’abord, nous constatons que la quantité de code écrit à l’aide de ces outils d’IA augmente massivement. Ce que nous voyons aussi, c’est que le nombre de pull requests faites dans tous les projets logiciels a rapidement augmenté depuis l’introduction des outils d’IA agentique et de GitHub Copilot. Par ailleurs, le temps moyen pour fusionner (merger) une pull request est en train de diminuer, et la taille moyenne d’une pull request est en fait en train de diminuer si l’on s’en réfère aux métriques DORA et autres outils de mesure DevOps. Ce sont des indicateurs positifs.
Quant à la question de la valeur, j’ai d’innombrables témoignages de clients qui m’ont dit avoir livré des fonctionnalités ou des applications, pour lesquelles ils pensaient devoir prendre des mois, en quelques semaines. Des acteurs comme Asus ou Mercedes-Benz témoignent publiquement en ce sens.
L’usage des agents IA entraîne… l’usage des agents IA
LeMagIT : Observez-vous de nouveaux cas d’usage des agents IA de programmation ?
Martin Woodward : Plus on écrit de code, plus il y a de failles de sécurité. C’est un goulet d’étranglement qui se crée mathématiquement. Nous constatons que les outils agentiques contribuent à accélérer la détection et, surtout, la correction des failles de sécurité. J’ai même vu, au sein de Microsoft, un ingénieur nommé David Fowler qui travaille sur le projet .Net Aspire. Il m’a montré un outil conçu à partir du SDK Copilot et du client Copilot. Pour les problèmes entrants, il exécute ce qu’on appelle une boucle d’agent automatisé afin d’essayer de reproduire le bug que le client signale. Une fois que l’agent IA l’a trouvé, il essaie, itère plusieurs fois pour essayer de le reproduire. Une fois la reproduction trouvée, il la documente avec précision et revient sur le problème, ce qui lui permet d’économiser de nombreuses heures. Il recherche également les doublons.
LeMagIT : Cela ressemble à la revue de code assistée…
Martin Woodward : C’est différent. L’examen du code est un problème bien défini aujourd’hui et il existe des solutions sur étagère. Il en va de même pour la correction des failles de sécurité. C’est également très mûr, car tous les outils de sécurité dont nous disposons analysent le code, trouvent où ils pensent qu’il y a un problème, puis identifient de quel type de problème il s’agit et vous donnent ensuite des indications de résolution. C’est ce que nos outils d’analyse de code sont capables de faire depuis cinq ans.
Ce sont typiquement des règles que nous pouvons introduire au LLM comme contexte. À partir de là, ils sont très capables de les respecter. C’est un contexte idéal pour générer des suggestions de correctifs. La génération de code est évidemment mature. Aux développeurs, maintenant, de se rappeler qu’avec les capacités agentiques et le « test time computing », ils peuvent paralléliser les tâches et les laisser tourner avant d’aller se coucher. C’est en tout cas une nouvelle habitude que j’ai dû prendre et qui n’est pas venue naturellement.
Les ingénieurs, les développeurs et les pratiques DevOps gagnent en importance
LeMagIT : Si l’IA génère le code, l’analyse, l’optimise et corrige les failles, quel est le rôle du développeur ?
Martin Woodward : Ce que nous constatons, c’est que l’approche DevOps est en fait plus importante qu’elle ne l’était jusqu’alors. Les utilisateurs les plus matures des agents IA ne les utilisent pas seulement pour les aider à créer du code, mais aussi pour construire les filets de sécurité, l’automatisation de la chaîne d’outils et des tests. Autant d’éléments dont les développeurs doivent être sûrs avant de livrer du code en production. C’est pourquoi je suis très optimiste quant à l’avenir des ingénieurs et des développeurs de logiciels, car les personnes non techniques ne réalisent pas à quel point le jugement, le goût et la créativité sont des facteurs qui améliorent la productivité. Les agents IA ne sont pas créatifs et n’ont pas de goût. C’est la valeur ajoutée du développeur, qui a de l’expérience, des connaissances. Nous n’avons jamais apporté de la valeur en tapant sur le clavier. À mon avis, le processus s’est grandement amélioré.
Chez les artisans du logiciel, il y avait un mythe selon lequel nous ne pourrions jamais écrire un code parfait. Nous n’avons jamais écrit de code parfait. Nous le savons. C’est pourquoi nous utilisons les meilleures pratiques DevOps pour supposer qu’il y aura des problèmes et nous permettre d’y remédier ou de les atténuer. Il en va de même avec l’IA agentique. Nous savons qu’elle n’est pas parfaite à 100 %. Nous savons que nous devons faire plus de tests, nous savons que nous devons mettre en place des mesures de protection. Néanmoins, la vitesse à laquelle cela se produit est sans commune mesure avec ce que j’ai pu observer au cours de ma carrière. Il s’agit de cycles d’amélioration incroyablement rapides, car nous utilisons tous nos propres outils agentiques.
LeMagIT : Qu’est-ce que cela change dans les pratiques DevOps ? Est-ce qu’il n’y a pas le risque que le code généré ne soit plus explicable par des humains ? Comment repérer les erreurs introduites par du code généré ?
Martin Woodward : Cela renforce les pratiques DevOps. Par exemple, la documentation n’a jamais été aussi importante. Elle n’aide pas seulement les humains, mais aussi les agents IA à utiliser votre système. D’ailleurs, il faut maintenir la documentation spécifique aux agents IA : les fichiers contenant les instructions pour piloter finement la génération et la revue de code. Ainsi, l’on peut guider les agents IA pour qu’ils ne manipulent qu’une portion du code et non toute la base. C’est un excellent moyen de repérer les types de problèmes que vous mentionnez et de nous permettre d’aller plus vite avec moins de risques tout en gérant ceux-ci.
Lorsque l’agent génère du code, il regarde votre prompt, mais aussi le code précédent et son jeu de données d’entraînement. Ce qui se trouve dans le modèle. En lui donnant des instructions, vous pouvez lui dire, « oh, c’est ainsi que je veux que mon code soit dans le futur, même s’il n’a jamais été comme cela par le passé ». C’est ainsi que nous voyons des gens ajouter des collecteurs de télémétrie, des features flags, préparer des migrations d’anciennes versions du framework .NET vers les nouvelles versions, tout comme avec Java, Spring, etc. Tout cela était auparavant très difficile. Aujourd’hui, les agents sont très doués pour ce type de tâches.
