Devstral 2 : Mistral AI joue de sa différence dans la programmation
Les deux LLM dédiés au codage et présentés hier ne sont pas les meilleurs de leur catégorie, mais Mistral AI joue sur la frugalité de son approche pour convaincre les entreprises.
Après la double collection Mistral 3, la licorne française présente Devstral 2. Elle propose là deux modèles. Le plus grand, Devstral 2, est fourni sous une licence MIT modifiée. Cette licence propriétaire permissive interdit son usage pour des entreprises dont le chiffre d’affaires dépasse 20 millions de dollars. Au-delà de ce seuil, Mistral AI propose une licence commerciale.
Comme Meta qui ne voulait pas « se tirer une balle dans le pied », Mistral AI veut profiter commercialement de ce modèle. Pour le coup, celui-ci dépasse tout juste les LLM chinois (DeepSeek 3.2, Kimi K2) en matière de programmation (SWE-Bench). Il reste toutefois derrière Gemini 3 Pro, GPT-5.1 Codex Max et Claude 4.5 Sonnet. Ces deux derniers disposeraient d’un score supérieur de 5 points.
Devstral 2 titille ses grands adversaires sans les battre
« Les très grands modèles de langage dotés d’une architecture à mélange épars d’experts (MoE) sont difficiles à servir pour tout le monde, sauf pour les “gros joueurs”. »
Baptiste RozièreChercheur en IA, Mistral AI
Or, avec son architecture dense (contrairement à Mistral Large 3), ses 123 milliards de paramètres et sa fenêtre de contexte de 256 000 tokens, Devstral 2 est bien plus efficient que ses concurrents chinois (et probablement américains). Il réclame au minimum un serveur doté de quatre GPU Nvidia H100.
« Les très grands modèles de langage dotés d’une architecture à mélange épars d’experts (MoE) sont difficiles à servir pour tout le monde, sauf pour les “gros joueurs” », justifie Baptiste Rozière, chercheur en IA chez Mistral AI, en réponse à une question d’un usager de LinkedIn. « C’est beaucoup mieux pour les entreprises de taille moyenne et les individus ».
Au vu du manque de ressources de calcul disponibles sur site, les entreprises passeront peut-être par l’API. Devstral 2 est facturée 0,40 dollar pour un million de tokens en entrée et deux dollars pour le même volume de tokens en sortie. Il est accessible gratuitement, de manière temporaire. Devstral 2 est par ailleurs disponible depuis les services de Cline et de Kilo Code, deux éditeurs de CLI agentique.
Pour rappel, Sonnet 4.5 d’Anthropic est facturé 3 ou 6 dollars pour un million de tokens en entrée, et 15 ou 22 dollars en sortie. Le concurrent surfacture les requêtes contenant plus de 200 000 tokens. GPT-5.1 Codex Max, en tête du parangonnage présenté par Mistral, coûte 1,25 dollar pour un million de tokens en entrée, 10 dollars en sortie.
Devstral Small 2 : un petit LLM dense qui rivalise avec de gros modèles SMoE
Pour les développeurs et certaines entreprises attentives à leur empreinte carbone, le modèle « open weight » (licence Apache 2.0) Devstral Small 2 – ses 24 milliards de paramètres et sa fenêtre de contexte de 256 000 tokens – semble techniquement le plus intéressant. Avec son score de 68 sur le benchmark SWE-bench, il égale GLM 4.6 (355 milliards de paramètres, 32 milliards actifs) et Qwen 3 coder plus (480 milliards de paramètres, 35 milliards actifs). Il existe un écart de 9 points de pourcentage entre ce modèle et Claude 4.5 Sonnet, mais Devstral Small 2 peut s’exécuter sur une RTX 4090 (24 Go de VRAM GDDR6X) ou un Mac (équipé d’une puce Apple M) doté de 32 Go de mémoire vive. Devstral Small 2 peut aussi s’exécuter sur le DGX Spark de Nvidia qui le rendra disponible depuis ses microservices Nvidia NIM. Le fournisseur le propose également à travers ses API pour 0,1 dollar pour un million de tokens en entrée, et 0,30 dollar pour le même volume de tokens en sortie.
Par ailleurs, Mistral AI enrichit sa pile d’outils pour les développeurs avec Mistral Vibe. Cette interface en ligne de commande open source (Apache 2.0) doit permettre, à l’instar de Gemini CLI, GitHub Copilot, Claude Code et d’autres, d’interagir en langage naturel pour générer du code, en chercher, manipuler des fichiers et des versions d’un projet de développement. L’outil, à intégrer dans les IDE du marché, doit permettre de fournir du contexte à Devstral. Mistral Vibe est évidemment extensible à travers les serveurs MCP (Model Context Protocol).
À nouveau, la startup précise qu’il est possible de fine-tuner ses modèles pour des langages de programmation ou des bases de code spécifiques. D’autant que Devstral 2 serait adapté à la correction de bugs et à la modernisation de SI existants.
Reste à voir si ce CLI fera de l’ombre à GitHub Copilot ou à Claude Code. Les DSI croisés par LeMagIT ont majoritairement fait le choix de GitHub Copilot. Certaines se posent encore la question (et tolèrent une forme de Shadow AI), d’autres, plus rares, imposent le déploiement des modèles en local.
Pour approfondir sur IA appliquée, GenAI, IA infusée