ServiceNow change ses tarifs au nom de l’adoption de l’IA
Les fonctionnalités d’IA de ServiceNow sont désormais intégrées à l’ensemble de sa plateforme logicielle et dans ses abonnements. Si cela ressemble à une technique de vente incitative désormais répandue, l’éditeur dit chercher à faciliter l’adoption de l’IA agentique en entreprise.
Sous couvert de démocratiser l’accès à son IA embarquée, ServiceNow change son modèle de licences. Il dit vouloir simplifier le déploiement de la GenAI et d’en rendre les coûts plus prévisibles.
Depuis le 9 avril, les produits ServiceNow sont proposés à travers trois nouveaux forfaits tarifaires : Foundation, Advanced et Prime.
Le niveau Foundation intègre des fonctions de synthèse, d’analyse et d’extraction de données propulsées à la GenAI. Le forfait Advanced inclut simultanément des flux de travail déterministes et d’autres, exécutés par des agents IA. Ils couvrent des tâches déterministes. L’offre Prime, elle, cible les clients prêts à remplacer les agents humains chargés du Service Desk de niveau 1 par des agents IA.
« Désormais, chaque client et partenaire de ServiceNow peut utiliser le sous-ensemble d’IA qui lui convient, en s’adaptant à son niveau de maturité », a vanté John Aisien (vice-président senior et directeur général de la gestion centrale des produits, de la sécurité et des risques chez ServiceNow) lors d’un entretien avec Informa TechTarget [propriétaire du MagIT].
Du fait de ce changement, tous ces nouveaux niveaux de licence intègrent les couches d’IA fondamentales de la plateforme ServiceNow. Auparavant, une partie du portail EmployeeWorks, Workflow Data Fabric et l’AI Control Tower, était vendu séparément.
Outre certaines licences par poste et d’autres barèmes de tarification, tels que les actifs sous gestion et le volume de stockage, ces produits comprennent un pool de tokens pouvant être affectés à différentes charges de travail en fonction des priorités du client. John Aisien n’a pas souhaité dévoiler les détails spécifiques de la tarification.
« Maintenant que nous ajoutons l’IA à chaque référence [SKU], il est logique d’inclure également tous les éléments indispensables à l’utilisation de cette IA, plutôt que de vendre les essuie-glaces, le volant séparément de la voiture », compare le dirigeant.
Changer la tarification pour favoriser les déploiements à large échelle en entreprise
ServiceNow n’est pas le seul éditeur à modifier ses tarifs en matière d’IA. HubSpot, par exemple, modifie la tarification de ses agents IA à compter du 14 avril. La facturation s’effectue en fonction de facteurs tels que le nombre de conversations résolues par un agent du service client et le nombre de prospects générés par un agent de prospection. Les autres agents intégrés à sa plateforme sont proposés gratuitement. L’année dernière, Atlassian a intégré ses agents IA Rovo et sa couche Teamwork Graph à l’ensemble de ses produits de gestion du travail basés sur le cloud, sans facturer de supplément pour les fonctionnalités d’IA. Oracle a également inclus des agents IA préconfigurés dans sa tarification, mais leur modification entraîne des coûts supplémentaires facturés à la consommation de tokens.
Justement. Ce mode de tarification également appliqué par ServiceNow demeure imprévisible tant qu’il n’est pas déployé à l’échelle et que des limites ne sont pas fixées. Toutefois, l’approche de l’éditeur peut séduire les entreprises qui cherchent à rationaliser leur outillage, selon Melody Brue, analyste chez Moor Insights & Strategy.
« À l’heure actuelle, l’IA, c’est un peu comme un caddie rempli de provisions sans recette pour cuisiner », lance-t-elle. « Il y a tellement de modules complémentaires, tellement d’outils différents. Peut-être que l’on peut s’en servir pour improviser un repas. [La nouvelle tarification IA de ServiceNow] est au moins une recette, si ce n’est un repas – et pas uniquement un tas d’outils dont il faut ensuite comprendre comment les intégrer, les surveiller, les gouverner [et] les payer ».
« Les éditeurs qui s’imposeront intégreront des pratiques pour contourner l’inertie au sein des entreprises, pour mener les déploiements progressivement avec des templates clés en main. »
Stephen ElliotAnalyste chez IDC
« La nouvelle approche tarifaire de ServiceNow en matière d’IA offre aux clients un moyen “d’essayer avant d’acheter”. À terme, elle permet une expansion plus poussée à mesure que les clients testent les fonctionnalités d’IA », considère Stephen Elliot, analyste chez IDC. « Les éditeurs qui s’imposeront intégreront des pratiques pour contourner l’inertie au sein des entreprises, pour mener les déploiements progressivement avec des templates clés en main », poursuit-il. « C’est toujours difficile de faire quelque chose pour la première fois, mais la troisième fois devrait être plus facile ».
Selon Melody Brue, les éditeurs mènent également des expériences. Et pour cause, ils rencontrent des difficultés dans la mise en œuvre de l’IA en entreprise. « De nombreux éditeurs essaient encore de comprendre la situation, et ils n’ont peut-être pas encore toutes les réponses », souligne-t-elle. « Chaque fois que quelqu’un parle de la tarification de l’IA, je me dis que c’est temporaire. Les coûts évoluent. Il y a tellement de choses qui changent, mais j’apprécie que cela aille dans le sens de la flexibilité ».
Context Engine : une couche d’observabilité doublée d’une boucle d’amélioration de l’UI
Outre le changement tarifaire, ServiceNow a concentré ses annonces sur son « Context Engine », issu de l’acquisition de Traceloop le mois dernier. À l’instar de Workflow Data Fabric, Context Engine sera intégré à tous les produits ServiceNow dans le cadre du nouveau modèle de licence. Selon John Aisien, il s’agit d’analyser l’utilisation de l’IA et d’adapter l’interface utilisateur de la plateforme en conséquence.
« Presque tous les workflows grand public bien conçus intègrent cette notion de feedbacks à partir de l’usage, en capturant les raisons des décisions et pas seulement les résultats. »
John AisienV-P senior et DG gestion centrale des produits, de la sécurité et des risques, ServiceNow
« Pensez à ce à quoi nous sommes tous habitués et avec quoi nous sommes à l’aise dans notre vie privée, notamment lorsqu’il s’agit d’interagir avec des services en ligne comme Netflix : les éléments sur lesquels vous passez la souris, ceux sur lesquels vous cliquez, ce que vous regardez, les commentaires que vous laissez… Tout cela fournit un contexte que Netflix utilise ensuite pour améliorer votre expérience globale », illustre John Aisien. « Presque tous les workflows grand public bien conçus intègrent cette notion de feedbacks à partir de l’usage, en capturant les raisons des décisions et pas seulement les résultats. La plupart des logiciels d’entreprise ne le font pas. »
La startup Traceloop a développé OpenLLMetry, un framework open source d’observabilité pour les applications LLM, qu’elle a utilisées pour étayer sa plateforme d’observabilité et d’évaluation dédiée à l’IA en entreprise. Cet outil permet de tracer chaque appel LLM en production, d’effectuer des contrôles de qualité (tels que la fidélité et la pertinence) sur le trafic réel, ainsi que de détecter les dérives et de mener des expérimentations.
« Considérez-le comme un système de capture des traces de décision des LLM », résume le dirigeant chez ServiceNow. « Chaque fois qu’un LLM prend une décision [le Context Engine] capture la décision prise, le moment où elle l’a été et le contexte prévalent dans lequel elle l’a été, puis permet à ce contexte historique et prévalent de guider l’apprentissage incrémental ».
Il faut comprendre que « Context Engine » est un emballage marketing pour une couche d’observabilité consacrée à la GenAI et aux flux de travail agentiques. Elle était toutefois nécessaire pour que la tour de contrôle de l’IA soit véritablement utile. Autrement, elle n’aurait été qu’un espace de gestion des politiques d’entreprises plus ou moins corrélés aux usages réels et le siège de la gestion des identités. Comme l’a expliqué Vikram Kakumani, CTO adjoint chez UiPath au MagIT cette notion « d’apprentissage » renvoie davantage aux systèmes capables de mettre à jour de manière semi-automatique le contexte et les prompts qui animent les agents IA.
Par ailleurs, ServiceNow assure que le Context Engine réunira les signaux et les traces en provenance de ses graphes de connaissances (Service Graph, Knowledge Graph), de sa CMDB en sus des échanges avec les chatbots et les opérations des agents IA.
ServiceNow ouvre la porte aux IDE agentiques
Reste à voir à quelle échéance cette couche sera réellement déployée. Elle est pour l’instant en préversion, dans un accès privé réservé à un petit nombre de clients. La conférence annuelle Knowledge 2026, ayant lieu du 5 au 7 mai à Las Vegas, devrait permettre d’en savoir plus.
Avant cela, dès demain, le 15 avril, ServiceNow permettra aux développeurs d’utiliser les IDE agentiques de leur choix (Antigravity, Claude Code, Cursor, OpenAI Codex, WindSurf, etc.), pour déployer des services directement sur sa plateforme. Afin de cadrer ces déploiements, l’éditeur étoffe son SDK et a développé des « skills », selon la recette d’Anthropic.
Les équipes habituées aux interfaces low-code/no-code peuvent toujours modifier les templates applicatifs fournis par l’éditeur à l’aide du « Build Agent » au sein du ServiceNow Studio. Dans ce cas-là, une extension payante semble rapidement nécessaire. « Pour commencer, les clients bénéficieront de 100 appels gratuits vers Build Agent, et les instances de développeur personnelles incluront 25 appels gratuits vers Build Agent », écrit l’éditeur dans un communiqué de presse.
Pour approfondir sur ITSM, Case Management, Enterprise Service Management