
maciek905 - stock.adobe.com
Codestral 25.01 : Mistral AI se pose en champion de la complétion de code
Avec la dernière version en date de Codestral, Mistral AI aiguise ses capacités de complétion de code pour mieux rivaliser avec le Chinois DeepSeek.
Le fournisseur français de LLM a présenté Codestral 25.01, un grand modèle de langage consacré aux développeurs. Entraînée sur plus de 80 langages de programmation, la première variante de ce LLM était la première à porter la licence propriétaire permissive de la startup, la MNPL. Codestral 25.01 est pour l’heure accessible via API depuis La Plateforme, le hub des API de Mistral AI, Vertex AI de Google Cloud et en préversion privée sur Azure AI Foundry. Il arrivera prochainement sur Amazon Bedrock. Pour l’instant, l’usage en local du LLM n’est disponible que depuis Continue, un assistant de programmation dédié aux entreprises.
Ingérer plus de code et répondre plus rapidement
Codestral 25.01 est un modèle doté de 24 milliards de paramètres, soit deux de plus que son aîné. Il dispose d’une fenêtre de contexte de 256 000 tokens, contre 32 000 pour Codestral 24.05.
Codestral 25.01 demeure un modèle dense spécialisé dans les tâches de complétion de code (remplissage au milieu ou fill-in the middle), de correction de code et de génération de tests.
La startup estime que la complétion de code est l’intérêt principal des LLM pour les développeurs. Eux n’ont pas forcément besoin que les modèles génèrent l’entièreté du contenu. Il peut aussi convertir du code existant, le résumer, l’enrichir, le revoir, le refactoriser, ou le débugger.
Les différences entre les versions 24.05 et 25.01 tiennent essentiellement en l’amélioration de l’architecture du LLM et de son tokenizer. Codestral utilisait jusqu’alors sa la version 3 du tokenizer de Mistral AI, nommée Tekken. Mistral AI assure également que Codestral 25.01 serait deux fois plus rapide que son aîné. Un élément que la startup aborde sans démonstration.
Champion dans la catégorie des moins de 100 milliards de paramètres
Mistral AI semblait avoir à cœur de proposer un LLM capable de surpasser son homologue chinoise DeepSeek. Celle-ci s’est particulièrement illustrée dans la génération de code. Codestral 25.01 serait devant Codestral 24.05, CodeLLama 70B Instruct, DeepSeek Coder 33B instruct et DeepSeek Coder V2 lite – exclusivement des LLM sous la barre des 100 de paramètres.
Le modèle aurait battu ses concurrents dans 15 des 21 bancs d’essai exécutés par la startup. En moyenne, Codestral serait meilleur que tous les adversaires cités plus haut une fois confrontés à des tâches de complétion de code. C’est particulièrement vrai en Python, Java, et JavaScript. Codestral 25.01 s’en sortirait avec les honneurs en C++ et en C#. Pour l’instant, il faut croire Mistral AI. La communauté n’a pas encore testé le LLM afin de vérifier les dires de la startup. Elle assure que le Codestral 24.05 a été déployé par des milliers de développeurs depuis son lancement.
Via Continue, Codestral 25.01 peut être utilisé localement, en connexion avec les IDE VS Code et Jetbrains. Le fournisseur de LLM avait précédemment fait l’effort de rendre Codestral compatible avec Tabnine, LangChain et LlamaIndex.