Getty Images/iStockphoto

GitHub Copilot : ce que la facturation à l’usage va changer

GitHub avait déjà opéré des changements concernant les abonnements individuels de GitHub Copilot. Il appliquera dès le 1er juin une facturation à l’usage, fonction d’un volume de crédits IA, sans changer le prix d’entrée de ses forfaits. Un paradigme qui impose davantage de parcimonies dans les pratiques de développement et une plus grande attention dans la négociation.

Après avoir restreint l’accès aux nouveaux abonnés individuels de GitHub Copilot, la filiale de Microsoft annonce un changement valable pour tous les forfaits de l’assistant IA. Cela concerne Discussion avec Copilot, Copilot pour CLI, Agent cloud Copilot, Copilot Spaces, Spark, et les agents tiers de programmation vendu par le fournisseur.

À partir du 1er juin 2026, ces outils seront facturés à l’usage. Les requêtes premiums disparaîtront au profit de crédits IA. Les prix des forfaits mensuels Pro, Pro+, Business, et Enterprise ne changent pas. Ils reviennent à 10, 19 dollars ou 39 dollars par utilisateur par mois.

Des tarifs par siège à traduire en volume de crédits IA

Le prix du forfait indique désormais le budget IA par utilisateur. Un crédit représentera 0,01 dollar.

Les abonnés Business et Enterprise disposeront respectivement de 1900 et 3900 crédits IA. Ils auront le droit des mois de juillet à août des crédits supplémentaires : 30 dollars pour les souscriptions Business (3 000 crédits), 70 dollars par mois pour les abonnés Enterprise (7000 crédits).

Ce budget sera extensible sous forme d’achats de crédits ou de paiement à l’usage.

Pour les entreprises dont les développeurs sont amenés à utiliser quotidiennement Copilot, mais où la consommation individuelle n’est pas prévisible, l’éditeur recommande d’acheter des pools de crédits IA, communs à une organisation. Il n’a toutefois pas détaillé si les entreprises pourront obtenir des remises au volume.

Dans tous les cas, les administrateurs auront accès à de nouveaux réglages pour permettre les achats de crédits supplémentaires ou, au contraire, fixer des limites de dépenses.

Quant aux coûts par LLM, il faut s’en référer aux prix par API de chaque fournisseur pour 1 million de tokens. GitHub donnera accès aux fonctions de mise en cache des entrées et de l’écriture en cache. Elles seront indispensables pour faire baisser les coûts. Dans ce cas, 1 million de tokens avec Opus 4.7 en entrée coûtera 500 crédits IA et 2500 crédits IA en sortie. Avec GPT-5.4, 1 million de tokens en entrée représente 250 crédits IA et 1500 en sortie. Bien évidemment, la quantité de tokens peut varier en entrée et en sortie. Et ce ne sont que deux exemples parmi d’autres.

Si la complétion et l’édition de code sont incluses dans les forfaits, le basculement automatique vers un modèle inférieur (une fonctionnalité nommée fallback experience) ne sera plus pris en charge.

GitHub impose un « shift-left » de l’approche FinOps

Qui plus est, les revues de code effectuées avec Copilot consommeront des minutes GitHub Actions, en sus des crédits IA. En clair, les clients paieront le nombre de tokens utilisés et le temps d’exécution pour effectuer la tâche agentique.

Les abonnés annuels aux souscriptions Pro et Pro+ resteront sur l’ancien modèle de requêtes premium, mais les multiplicateurs de modèles – qui déterminent le coût des requêtes premium par modèle – vont augmenter dès le 1er juin. À l’expiration de leur forfait, ces usagers annuels transiteront automatiquement vers la version gratuite de GitHub Copilot, à mains qu’ils acceptent d’adhérer aux abonnements à la consommation de tokens.

Ce mode gratuit sera surveillé de près. « Nous avons constaté un nombre important d’abus dans le cadre des versions d’essai et avons décidé de les suspendre le temps de mener notre enquête », affirme GitHub dans sa foire aux questions. « Nous travaillons activement à la mise en place de mesures de protection renforcées afin d’empêcher toute utilisation abusive du système de versions d’essai et vous tiendrons informés dès que nous aurons des nouvelles ».

De même, les quotas actuels vont être à nouveau revus à la baisse d’ici au 1er juin, prévient la filiale de Microsoft. Tout à fait consciente de la frustration que peut engendrer la méthode, elle estime que c’est un mal nécessaire jusqu’à ce que le nouveau modèle économique soit en place.

Elle réclame toutefois davantage de rigueur aux entreprises.

« Le choix du modèle d’IA relève désormais d’une décision technique, le FinOps doit s’intégrer au flux de travail des développeurs et l’architecture reprend toute son importance : routage, décomposition, mise en cache, réutilisation », comprend Vitor Domingos, directeur de l’IA, centre for Architecture & AI chez Hitachi Digital Services EMEA.

« Cela aura des répercussions importantes dans l’ensemble des entreprises », anticipe pour sa part Philip Walsh, directeur des pratiques d’ingénierie logicielle chez Gartner.

Tarification de l’IA : « éditeurs et DSI naviguent à vue »

Cette décision n’est pas surprenante. GitHub avait déjà informé que l’accessibilité de son modèle économique pesait à la fois sur son infrastructure et sur ses finances. Les grands modèles de langage ont généré de plus en plus de tokens, avant qu’Anthropic, OpenAI et Google, les trois champions dans ce domaine, revoient leur copie pour tenter de gagner en efficacité.

GitHub cherche donc un compromis entre l’accessibilité de ses formules, la maîtrise de ses dépenses et la rentabilité du service.

La filiale de Microsoft n’est pas la seule à ajuster son modèle économique ou ses quotas. En mars, Windsurf a revu son modèle pour inclure un nombre de « messages » par jour en fonction de la taille des modèles et du forfait sélectionnés. En cas de dépassement, les prix à l’API s’appliquent. De son côté, pour Codex OpenAI facture un nombre de messages et de tâches par tranche de cinq heures. Le forfait Pro commence à 100 dollars par utilisateur par mois.

« Si votre stratégie technique repose sur la stabilité des tarifs de ces fournisseurs, vous devriez peut-être envisager des modèles de gestion en interne pour certaines composantes de la pile », recommande Bernhard Wannasek, responsable application & AI Security chez KPMG Autriche. La capacité à changer de fournisseurs de LLM et d’outils d’IA devient également cruciale.

Ce modèle invite surtout à penser plus finement l’usage des tokens pour les entreprises qui n’auraient pas déjà passé le pas des outils open source combinés aux API ou aux modèles open weight. Or, dans son rapport « State of Engineering 2026 », Datadog remarque que la maîtrise des coûts au tokens chez ses clients en mars dernier n’était ni une priorité ni une réalité.

D’autres anticipent que ce modèle à la consommation de tokens ou au nombre de messages/crédits soit de plus en plus usité, mais il n’est pas certain qu’il soit le standard de demain.

Selon Michael Mansard, directeur de la stratégie chez Zuora, spécialiste de l’économie de la souscription et conférencier à l’INSEAD, en matière de tarification de l’IA, « DSI et éditeurs naviguent à vue. La meilleure chose c’est la discipline et l’empathie », affirme-t-il auprès du MagIT. « L’éditeur doit comprendre que le DSI n’a pas un budget infini et qu’il a d’autres sujets à traiter ».

Puisque la plupart des éditeurs de logiciels SaaS opte pour un modèle au volume de crédits, « la manière de négocier d’un DSI doit aussi changer », poursuit-il. « Au-delà du FinOps, la compréhension des enjeux de l’éditeur en face est très importante. Le DSI doit saisir que la structure de coût est différente et les marges brutes de son éditeur sont en train de baisser fortement », conclut-il.

Pour approfondir sur IA appliquée, GenAI, IA infusée