peopleimages.com - stock.adobe.c
Mistral Vibe 2.0 : Mistral AI monétise son CLI agentique auprès des entreprises
Avec son CLI agentique Vibe 2.0, Mistral AI tente d’égaler rapidement Claude Code et GitHub Copilot. Outre la parité fonctionnelle, la startup française joue sur les prix et les déploiements locaux.
Dans la droite lignée de décembre, Mistral AI lance Vibe 2.0. Le CLI infusé à l’IA, présenté en même temps que les modèles Devstral 2, saute d’une version 1.3.5 il y a deux semaines à une version 2.0.1 le 28 janvier. Comme le passage de SAP HANA 1.3 à 2.0 en son temps.
Le projet demeure open source, mais la startup a constitué une distribution commerciale. Le CLI est donc mis à jour en continu, sans l’intervention des usagers. Il est désormais accessible depuis les abonnements Le Chat Pro et Team. Le Chat Entreprise n’est pas évoqué. Des limites d’usage s’appliquent : une option Pay as you Go permet de s’en affranchir au prix des API.
En clair, l’entreprise vient de rendre payants les appels aux API de ses LLM Devstral 2 (un accès qui reste gratuit dans le mode « Expérimental » de Mistral Studio). Les entreprises, si elles le veulent, peuvent se faire accompagner par la startup pour fine-tuner les modèles sur leur base de code et leur documentation, appliquer de l’apprentissage par renforcement ou moderniser leur base de code. Le CLI peut être intégré avec les IDE du marché, dont VS Code et ceux de Jetbrains.
Mistral Vibe introduisait déjà la gestion multifichiers et l’accès au dépôt de code. Elle ajoute des sous-agents personnalisables. Les sous-agents sont des agents IA dédiés à des tâches spécifiques sous l’égide d’un LLM orchestrateur. Dans le cas de Mistral AI, ils servent à explorer les bases de code en lecture seule, à paralléliser des tâches et sont exécutés en mémoire. La startup évoque le déploiement de scripts, la génération de tests et la revue collaborative de pull requests. Il intègre aussi des modes « unifiés » qui permettent de configurer l’orchestration d’outils, de permission et de comportements spécifiques. Dans sa démonstration, Mistral automatise la publication de feed-back sur des pull requests.
À cela s’ajoute une fonction de clarification multichoix quand le prompt d’un utilisateur n’est pas assez clair pour le modèle. Les usagers peuvent utiliser des commandes slash pour déclencher des « skills » définies à l’avance à travers un fichier MD. Les skills peuvent être établies globalement à l’échelle d’un répertoire, et localement, par projet. Cela peut servir à déployer des éléments, générer de la documentation ou de la vérification de style du code (linting).
Mistral tente d’égaler ses compétiteurs et de jouer sur les prix
« Si l’annonce de décembre a posé les bases et présenté principalement notre nouvelle famille de modèles Devstral 2, Mistral Vibe 2.0.0 représente une évolution dans la conception des outils de codage alimentés par l’IA, en mettant l’accent sur la personnalisation, l’efficacité des coûts et la flexibilité adaptée aux entreprises », assure un porte-parole de Mistral AI auprès du MagIT.
Dans les faits, l’ensemble des fonctionnalités ci-dessus sont prises en charge par Claude Code, Cursor, GitHub Copilot et Windsurf. Mistral AI argue que les modes unifiés représentent une « une fonctionnalité que la plupart des concurrents gèrent séparément ». Contrairement à Windsurf et à Cursor, Mistral Vibe 2.0 est pensé selon une approche « terminal first », une « demande forte de nos utilisateurs », assure la startup. Claude Code, GitHub Copilot ou Gemini CLI font de même.
Face à GitHub Copilot et ses 4,7 millions d’utilisateurs payants et à Claude Code, 1 milliard de dollars de revenus atteint en six mois selon Anthropic, ainsi que les autres concurrents, Mistral Vibe devra trouver sa place. La parité fonctionnelle associée à une tarification compétitive de son offre pourrait lui permettre de gagner du terrain.
Claude Code est accessible par les particuliers à partir de 17 dollars par mois (200 dollars à l’année) et dans l’abonnement Team, facturé 20 dollars par mois par siège (de 5 à 75 abonnements). Pour les entreprises, GitHub Copilot est facturé 19 dollars par mois (Business) ou 39 dollars par mois par siège (Enterprise). Ces tarifs sont hors taxes. Le Chat Pro coûte 14,99 dollars par mois HT et Le Chat Team est affiché à 24,99 dollars par mois par siège (150 usagers maximum).
La tarification par API, les performances des modèles Devstral 2 (bien qu’en deçà de Claude Sonnet 4.5), en sus de la prise en du « Bring Your Own API Key », permettent à Mistral AI de se démarquer. Via l’API, Devstral 2 est facturé 0,4 dollar pour 1 million de tokens en entrée et 2 dollars pour le même volume généré en sortie. Claude 4.5 Sonnet coûte 3 dollars pour 1 million de tokens en entrée, et 15 dollars en sortie, soit 7,5 fois plus cher que Devstral 2. Cela veut aussi dire que lorsqu’un utilisateur atteint les limites de Claude Code (ce n’est pas si difficile) et veut continuer à utiliser le service, cela lui revient plus cher que l’offre du « champion » français de la GenAI.
La touche locale et « souveraine »
Enfin, Mistral Vibe 2.0, les modèles Devstral 2 et Devstral 2 Small peuvent toujours être installés en local ou sur site pour des usages dits souverains. Un privilège de l’open weight et de l’approche de Mistral AI. Pour les entreprises, Mistral AI recommande de déployer Devstral Small 2 (24 milliards de paramètres) sur un GPU Nvidia H100 (80 de VRAM HBM2e ou HBM3, suivant les variantes PCIe et SXM) ou A100 (80 Go de VRAM HBM2e) en FP8 et une fenêtre de contexte de 128 000 tokens. Devstral 2 (123 milliards de paramètres) réclame au moins 128 Go de VRAM, selon Unsloth.
Pour les développeurs, elle suggère le recours au même modèle sur un GPU doté d’au moins 24 Go de VRAM (par exemple la RTX 4090) afin de l’exécuter en FP4 et de configurer une fenêtre de contexte de 32 000 tokens. Il est toujours possible d’utiliser un CPU et une grande quantité de RAM (64 Go pour un minimum de confort), mais ce sera « significativement plus lent ».
