DORA : selon Google, l’IA ne retarde plus la livraison logicielle
Une enquête du groupe DORA de Google sur le développement de logiciels conclut que l’adoption de l’IA dans cette activité est généralisée. Les goulets d’étranglement observés l’année dernière en matière de livraison ont été résolus. Toutefois, des problèmes de stabilité, de confiance et d’organisation subsistent.
L’étude du groupe de recherche de Google, menée chaque année, mesure les performances de la livraison logicielle dans deux catégories principales. Elle s’intéresse à la vitesse et l’efficacité, ou le débit, et la qualité et la fiabilité des versions, appelées instabilité. Elle mesure également les résultats individuels des développeurs de logiciels, tels que la qualité du code, les frictions et l’épuisement professionnel.
L’année dernière, l’enquête menée auprès de 3 000 répondants a révélé une baisse de 1,5 % du débit de livraison des logiciels. Elle évoquait aussi une chute de 7,2 % de la stabilité de la livraison pour chaque augmentation de 25 % de l’adoption de l’IA par une organisation. Cette année, les chercheurs de Google ont interrogé 5 000 personnes. Ils ont réalisé plus de 100 heures d’entretiens de recherche, mais les réponses ont été traitées différemment. Toutefois, les différences sont suffisamment notables pour ne pas résulter de ce changement de méthode. C’est en tout cas ce que prétend Nathen Harvey, responsable DORA et des relations avec les développeurs chez Google Cloud.
« Cette année, nous utilisons des effets standardisés, en examinant l’ampleur du changement lié à l’utilisation accrue de l’IA par les répondants, et nous mesurons ces changements en écarts types par rapport à la moyenne », explique-t-il. « En substance, nous affirmons que ces chiffres sont relatifs, mais qu’ils montrent des améliorations. Il ne s’agit pas d’un progrès considérable, mais il y a des avancées ».
Le rapport DORA publié cette semaine émet quelques hypothèses sur les raisons de ce changement.
« Je constate que de plus en plus d’ingénieurs “collaborent” de mieux en mieux avec les outils d’IA. »
David StraussArchitecte en chef et cofondateur, WebOps Pantheon
« Si l’IA prend en charge certaines tâches fastidieuses sous-jacentes aux processus de programmation (échafaudage, boilerplate, transformations routinières), les développeurs peuvent disposer de plus de temps pour se concentrer sur le déploiement du code, ce qui se traduit par une augmentation du débit de livraison des logiciels et, en fin de compte, par une amélioration des performances des produits », indique le rapport. « Nous pourrions également observer une adaptation des systèmes organisationnels à des environnements plus propices à l’IA. »
Ces résultats ont trouvé un écho auprès d’un responsable en génie logiciel. « Je constate que de plus en plus d’ingénieurs “collaborent” de mieux en mieux avec les outils d’IA », avance David Strauss, architecte en chef et cofondateur de la société WebOps Pantheon. « Les attentes sont plus raisonnables et les modèles d’IA ont également gagné en qualité. »
Nathen Harvey considère que l’effet négatif de l’IA sur la stabilité des versions logicielles est prévisible à mesure que la technologie mûrit.
« Honnêtement, il n’est pas surprenant de voir le débit commencer à augmenter avant que l’instabilité ne diminue », déclare-t-il. « Il y a une pression pour aller toujours plus vite, et la stabilité passe alors au second plan. »
Les problèmes de confiance envers l’IA demeurent
Parmi les autres changements révélés par l’enquête de cette année, l’on note une augmentation de l’adoption de l’IA par les développeurs. Elle passe de 76 % en 2024 à 90 % en 2025. Plus de 80 % des personnes interrogées ont observé une augmentation de leur productivité. 59 % d’entre elles ont signalé une amélioration de la qualité du code.
Cependant, la confiance des répondants dans cette technologie n’a pas progressé de manière proportionnelle, signale Nathen Harvey. 30 % des répondants ont déclaré faire « un peu » ou « pas du tout » confiance à l’IA, contre 39,2 % l’année dernière. Cette année, 70 % ont déclaré faire « assez », « beaucoup » ou « énormément » confiance, contre 87,9 % en 2024.
Nathen Harvey interprète les résultats du rapport DORA comme un ajustement sain des attentes concernant les capacités des outils infusés à l’IA.
« Il serait erroné de faire entièrement confiance à l’IA », souligne-t-il. « L’instabilité des livraisons logicielles ne cessant de croître, nous devons nous assurer que des contrôles sont en place pour valider ce qui est produit ».
« […] Les gens sont partagés entre leur admiration pour les capacités actuelles de l’IA et leur frustration face à son incapacité à vraiment comprendre le monde. »
Torsten VolkAnalyste, Omdia
Un analyste du secteur indique que ses propres recherches montrent un décalage similaire. Les décideurs informatiques sont prêts à payer plus cher pour des logiciels dotés de fonctionnalités d’IA de haute qualité. Ils prétendent faire confiance aux décisions basées sur l’IA, mais ils les remettent souvent en cause dans la pratique.
« Je pense que les gens sont partagés entre leur admiration pour les capacités actuelles de l’IA et leur frustration face à son incapacité à vraiment comprendre le monde », comprend Torsten Volk, analyste chez Omdia, une division d’Informa TechTarget [également propriétaire du MagIT]. « La nature partiellement probabiliste de l’IA générative rend difficiles sa compréhension et la confiance qu’on peut lui accorder. Parfois, l’IA fournit des réponses qui semblent humaines, tandis que d’autres fois, ses réponses sont illogiques ».
Les bonnes pratiques en matière d’IA émergent
Dans l’ensemble, le rapport DORA révèle que l’utilisation de l’IA commence à refléter et à amplifier les caractéristiques organisationnelles existantes, pour le meilleur et pour le pire.
« Nous constatons des résultats mitigés avec l’IA chez les personnes que nous observons, et dans le même temps, nous constatons que 90 % des personnes utilisent l’IA », répète M. Harvey. « Il est donc clair que ce n’est pas le fait d’utiliser ou non l’IA qui détermine son impact, mais plutôt la manière dont vous l’utilisez. »
Sur la base des résultats de l’enquête de cette année, DORA a identifié sept bonnes pratiques communes aux organisations qui tirent parti de l’IA :
Une position claire et communiquée sur l’IA.
Un écosystème de données sain.
Des données internes accessibles à l’IA.
Des pratiques rigoureuses de contrôle des versions.
DORA a également identifié comment différentes applications de ces pratiques peuvent conduire à de meilleurs résultats spécifiques en matière d’IA. Par exemple, une équipe qui souhaite améliorer les performances de ses produits doit se concentrer sur l’accessibilité des données internes, le travail par petits lots et la clarification de sa position vis-à-vis de l’IA.
« Ce que je dis aux entreprises qui souhaitent tirer parti de l’IA, c’est qu’elles ont intérêt à mettre de l’ordre dans leurs affaires », affirme Matthew Flug, analyste chez IDC. « Leurs flux de travail, leurs processus et leur posture de sécurité doivent tous être solides comme le roc, car l’IA trouvera les failles dans leur armure ».