Mistral bâtit sa « stack » IA dédiée à la programmation en entreprise
En combinant certains de ses LLM et ses outils, le fournisseur de LLM français entend mettre au point une pile technologique consacrée au développement assisté par l’IA qu’il espère vendre aux entreprises régulées. Mistral AI aurait déjà convaincu Capgemini et la SNCF.
Publié le: 31 juil. 2025
Le 30 juillet, Mistral AI a annoncé la disponibilité de Codestral 25.08. Pour rappel, le fournisseur de LLM français avait présenté Codestral 25.01 en janvier dernier. De prime abord, les différences entre les deux variantes propriétaires sont minimes. Les deux modèles disposent d’une fenêtre de contexte maximale de 256 000 tokens et de 24 milliards de paramètres. Tous deux sont spécialisés dans les tâches de « fill-in the midlle » (de complétion de code), de correction de code et de génération de tests.
Codestral 25.08 est de sortie
Cependant, Mistral AI affirme qu’avec Codestral 25.08, les complétions de code acceptées seraient en hausse de 30 %, tandis que la conservation de suggestion de code augmenterait de 10 %. Les générations « incontrôlées » baisseraient de moitié (50 %). Des résultats apparemment validés sur du code en production depuis un IDE.
En revanche, les améliorations en matière de suivi d’instructions et d’aptitude à programmer croissent respectivement de 5 % par rapport à Codestral 25.01.
« Le modèle prend en charge un large éventail de langages et de tâches, et peut être déployé dans des environnements cloud, VPC ou sur site, sans nécessiter de modifications architecturales », assure Mistral AI. Le fournisseur ne prend même pas la peine de comparer son LLM avec ceux de ses concurrents.
Mistral coding stack : une offre « complète » pour les entreprises régulées
La startup française ne veut pas seulement proposer des LLM. Comme ses concurrents, elle entend commercialiser une pile technologique pour le développement d’applications « AI Native ». Cette pile se nomme Mistral coding stack.
Elle doit combiner complétion de code, recherche sémantique dans la base de code, explication, et flux agentiques. Son point d’interface ? Mistral Code.
Présenté en juin dernier, Mistral Code est un plugin pour les IDE Jetbrain et VS Code. Sous le capot, le fournisseur met en musique les modèles Codestral, Devstral – spécialisés dans l’exploration de base de code et l’édition de documentations – et le modèle d’embedding Codestral Embed, pour l’indexation de code et la recherche de contenus associés. Codestral Embed surpasserait des algorithmes d’indexation équivalents chez OpenAI et Cohere.
Mistral AI affirme avoir converti Devstral en agent IA à l’aide du projet open source OpenHands. L’application qui en résulte peut ainsi refactoriser du code, débugger des fonctions, commenter du code, gérer des tests ou encore prévalider des pull requests.
Cette architecture proposée par Mistral AI sera disponible en cloud, derrière un VPC et on-premise. La startup promet la compatibilité avec les SSO du marché, la conservation des logs d’audit et un contrôle RBAC.
« Les organisations ne recherchent plus des assistants isolés, elles adoptent des systèmes d’IA intégrés [...]. »
Mistral AICommuniqué de presse
Comme Cohere au Canada, le fournisseur français cible les entreprises aux contraintes réglementaires strictes. Capgemini aurait déjà déployé cette stack pour des équipes travaillant dans les domaines de la défense, des télécoms et de l’énergie. La banque espagnole Abanka installerait elle-même les modèles de Mistral AI de manière isolée, tandis que la SNCF s’en servirait pour réactualiser des applications Java existantes.
Des banques et des industriels utiliseraient en pilote ou étendraient le déploiement des LLM consacrés à la programmation de Mistral AI. « Ces cas d’usage reflètent une évolution croissante : les organisations ne recherchent plus des assistants isolés, elles adoptent des systèmes d’IA intégrés qui correspondent à la complexité, à la posture de sécurité et à la vitesse du développement logiciel moderne des entreprises », prétend un communiqué de Mistral AI.
Le fournisseur français mise sur la flexibilité de déploiements, la personnalisation de son architecture, l’unification de la gouvernance et des contrôles et la compatibilité avec les chaînes d’outils de développement déjà installés chez ses clients. À ce jeu, il se différencie de GitHub Copilot, de Codex d’OpenAI, de Cursor et d’Anthropic (Claude Code).
La société dirigée par Arthur Mensch entre, en revanche, en compétition avec Tabnine (dont la solution peut appeler Codestral) et GitLab avec Duo Self-Hosted qui, eux aussi, ciblent les entreprises hautement régulées. Reste à voir si les entreprises sont prêtes à miser sur l’architecture de Mistral AI. La licorne n’affiche pas la tarification de Mistral Code et de la pile technologique sous-jacente. Il s’agit d’une offre entreprise sujette à devis.
Depuis l’interface de la PaaS « La Plateforme », l’API Codestral est facturée 0,3 euro pour 1 million de tokens en entrée et 0,9 euro pour 1 million de tokens en sortie. Devstral Medium coûte 0,4 euro pour 1 million de tokens en entrée et 2 euros pour un million de tokens en sortie. Codestral Embed revient à 0,15 euro pour 1 million de tokens ingérés.
Lors de la présentation de ses résultats financiers du quatrième trimestre fiscal 2025, le 30 juillet, Microsoft a affirmé compter plus de 20 millions d’utilisateurs sur GitHub Copilot, cinq millions de plus qu’au précédent trimestre. Le nombre de clients de Copilot Enterprise aurait grimpé de 75 % entre le T3 et le T4 2025.
Pour approfondir sur IA appliquée, GenAI, IA infusée