mehaniq41 - stock.adobe.com

En rachetant Dragon LLM, OVHcloud pose les premières pierres de son laboratoire d’IA souveraine

OVHcloud a annoncé son intention d’acquérir Dragon LLM, un spécialiste des modèles de langage spécialisés, pour un montant non divulgué. Le fournisseur de cloud français entend fonder un laboratoire consacré à l’entraînement de modèles d’IA souverains.

Fondée en 2011, DragonLLM est une société de la région parisienne, plus connue sous le nom de Lingua Custodia. Spécialisée dans la traduction automatisée de documents financiers, elle a réalisé un pivot pour s’engager dans le domaine de l’IA générative, expliquait Olivier Debeugny, son cofondateur et CEO, au MagIT.

Dragon LLM, un spécialiste des SLM et de l’architecture hybride Mamba-Transformer

Dragon LLM entraînait déjà ses propres modèles NLP avant de proposer des modèles de langage autorégressifs. Plutôt que de miser sur de grands modèles de langage, la petite société a remporté un concours de la Commission européenne pour entraîner un SLM de 3,6 milliards de paramètres sur les supercalculateurs Leonardo et Jupiter.

L’occasion de tester l’architecture hybride Mamba-Transformer, réputée pour son efficience. Depuis, Dragon LLM entend entraîner des SLM spécifiques à certains domaines, en commençant par la finance. À noter que les chercheurs de l’entreprise n’ont pas repris de but en blanc l’architecture évoquée plus haut. Conseillés par les inventeurs américains de Mamba-Transformer, ils ont dérivé leur propre version. Ils ont par ailleurs fine-tuné plusieurs LLM open weight disponibles sur le marché avec des jeux de données financiers, dont Llama 3.1-8B et 70B, ainsi que Qwen 3 8B, 70B et Qwen Pro 32B. Si les modèles qui en résultent doivent encore être améliorés, ce niveau technique reste rare. En Europe, seules quelques entreprises telles Mistral AI, Aleph Alpha (Allemagne) ou Silo AI (Finlande, acquis par AMD en 2024) maîtrisent l’entraînement de modèles de langage de cette envergure.

En outre, Dragon LLM avait déjà mis à disposition de ses clients une plateforme nommée Verto. Outre la traduction des documents financiers, la société y a intégré un système RAG jugé utile pour contrôler la cohérence entre des prospectus et des contrats, ou encore répondre à des appels d’offres. Dragon LLM l’a déployé pour le compte de ses clients (BNP Paribas, Crédit Agricole, Natixis, etc.) sur des serveurs dédiés hébergés sur Scaleway.

OVHcloud ne dit pas ce qu’il fera des services déployés pour clients existants. Il y a de grandes chances qu’il n’y ait pas d’arrêt de service, au vu des déclarations du groupe. « En internalisant les briques technologiques développées par Dragon LLM, OVHcloud proposera à ses clients de nouveaux services dans l’IA générative pour les données sensibles, déployables dans le Cloud et On-Premise », lit-on dans le court communiqué de presse qui accompagne l’annonce. Les modèles Mamba-Transformer de Dragon LLM sont également prévus pour s’exécuter sur des CPU.

Un laboratoire pour entraîner ou affiner des LLM souverains

Le fournisseur de cloud entend ainsi renforcer ses équipes consacrées au fine-tuning de modèles. Pour rappel, OVHcloud a fait jusqu’alors preuve de prudence en matière d’IA générative. Il n’a pas investi massivement dans des fermes de GPU, pourtant nécessaires à ces phases de post-entraînement. Il semblerait qu’il change légèrement de braquet, au nom de la souveraineté. « Il s’agit pour OVHcloud d’une première acquisition qui initie la création de son lab AI dont le but est l’entraînement et le fine-tuning de LLM souverains ».

En clair, OVHcloud s’engage sur les traces de Mistral AI qui proposera une solution similaire avec sa plateforme Forge. Google Cloud, Microsoft Azure et AWS font de même sur le post-entraînement seulement.

Octave Klaba, cofondateur et président d’OVHcloud, a diffusé l’annonce sur ses réseaux sociaux en l’illustrant par une photo de la conférence de Nvidia GTC 2026 où trône un rack de GPU Vera Rubin NVL144. En novembre 2025, le président avait dévoilé un partenariat avec Sambanova, fabricants de puces IA reprogrammables. Le groupe cherchait alors à s’équiper pour l’inférence à haute vitesse. Les systèmes comme ceux de Nvidia sont davantage « câblés » pour l’entraînement.

Le dirigeant n’en dit pas plus : c’est une période de silence médiatique partielle (« black-out ») pour l’entreprise qui diffusera ses résultats financiers le 9 avril prochain. Contactés par la rédaction du MagIT pour de plus amples précisions, OVHcloud et Olivier Debeugny ont expliqué qu’ils répondraient plus tard.

En février, le fournisseur de cloud avait annoncé l’acquisition de Seald, un autre expert français, cette fois-ci du chiffrement de bout en bout.

Pour approfondir sur IA appliquée, GenAI, IA infusée