Pour bâtir Mistral Compute, Mistral AI acquiert le spécialiste du serverless Koyeb

Fournisseur de LLM, ESN spécialisée dans l’IA et bientôt neocloud. Mistral AI signe un premier rachat sous le signe du multicloud et du serverless. Koyeb propulsera une bonne partie des fonctions de Mistral Compute, mais la société dirigée par Arthur Mensch doit encore préciser ses intentions.

Le 17 février, Mistral AI a annoncé sa première acquisition. Le fournisseur de LLM se prépare à racheter Koyeb pour un montant non dévoilé. L’opération doit encore être validée par les autorités.

Koyeb est l’éditeur d’une plateforme serverless multicloud. Basée à Boulogne-Billancourt, la startup fondée en 2019, mais lancée en 2021 est le fruit du travail de trois anciens de Scaleway : Yann Léger, Bastien Chatelard et Édouard Bonlieu.

Koyeb a levé 6,6 millions d’euros en 2023, après une collecte pré-seed en 2020 de 1,4 million d’euros. Elle était soutenue financièrement principalement par Serena, Isai, Samsung Next, MongoDB, Acquei Capital, Kima Ventures et Plug & Play Ventures.

L’accord définitif implique que les trois cofondateurs et les 13 employés de Koyeb rejoignent l’équipe ingénierie de Mistral en mars 2026.

« Le produit et l’expertise de Koyeb vont accélérer notre développement sur le front du Compute, et contribuer à la construction d’un véritable Cloud de l’IA », affirme Thimothée Lacroix, cofondateur et directeur technique de Mistral AI dans un communiqué de presse.

Koyeb : d’alternative à Heroku à spécialiste de l’IA serverless

Le CTO évoque là le développement de l’architecture logicielle de Mistral Compute, son offre IaaS et PaaS qui sera d’abord hébergée en France, au sein du data center Eclairion à Bruyères-Le-Chatel. La semaine dernière, le fournisseur de LLM a annoncé un investissement de 1,2 milliard d’euros pour se munir de capacités de calcul en Suède d’ici à 2027.

Avec Mistral Compute, Mistral AI est en passe de devenir son propre hébergeur, plus proche de Vultr, CoreWeave ou Nebius, des Neocloud que d’OpenAI et Anthropic.

À l’origine, Koyeb n’est pas un spécialiste de l’IA. Elle a d’abord présenté son offre comme une alternative aux PaaS d’Heroku ou de Render. Elle a bâti son architecture non pas sur Kubernetes, mais sur des microVM Linux (KVM) installées sur des serveurs Bare-Metal cloud. L’idée était d’offrir « un haut niveau de performance à un coût soutenable ».

Koyeb a développé des accélérateurs pour déployer des applications dans différents langages de programmation, lancer des bases de données PostgreSQL ou d’autres à travers des intégrations à MonogDB Atlas, Aiven, Neon (racheté par Databricks), Crunchy Bridge (acquis par Snowflake) ou encore CockroachDB. Avec ceci, elle fournit un ensemble de fonctionnalité que l’on peut attendre d’une telle plateforme : connexion aux dépôts Git, IaC, autoscaling, CDN, services de stockage, service mesh (Kuma), coffres-forts de secrets, etc.  

Petit à petit, elle s’est retrouvée face à des acteurs comme CloudFlare, qui, eux aussi, développent des services PaaS et FaaS. Comme d’autres, Koyeb a développé une approche multicloud : GCP (où réside son control plane), IBM Cloud, Equinix Metal (service en fin de vie), Scaleway, AWS et Azure.

De Koyeb vers Mistral Compute, une transition à préciser

Avec la montée en puissance de l’IA, Koyeb s’est adapté. La société a lancé ses premières instances GPU en juin 2024 (Nvidia RTX 4000 SFF ADA, L4, L40S, A100, H100). En 2025, elle a ajouté un catalogue de modèles open Weight. Elle s’est rapprochée du neocloud Vultr. Elle a pris en charge d’autres GPU et puces IA (A100SXM, Tenstorrent Wormhole n300s, RTX Pro 6000, H200, H200, B200).

Elle a intégré un serveur MCP, des moyens de simplifier les déploiements de frameworks IA, de mieux orchestrer les GPU (en passant de Firecracker à Cloud Hypervisor et Kata Container en complément de l’orchestrateur Nomad et du moteur containerd) ou encore des sandboxes pour les agents IA. Entraînement, inférence, exécution d’agents IA : Koyeb prétend couvrir toutes les charges de travail GenAI essentielles.

En mars 2024, Timothée Lacroix avait exprimé la difficile gestion des clusters GPU sur Kubernetes à large échelle. Un problème lié à une prise en charge partielle des GPU par l’orchestrateur de conteneurs, mais également à l’instabilité de certaines puces Nvidia, selon les propos recueillis en septembre par LeMagIT auprès d’un ingénieur cloud d’un grand fournisseur. Par ailleurs, la prise en charge des puces IA par la communauté Kubernetes est principalement tournée vers Nvidia. Koyeb s’est justement rapproché de Tenstorrent et d’autres pour proposer une approche plus agnostique du Hardware. Une capacité intéressante pour Mistral AI, encore très dépendant du géant dirigé par Jensen Huang.

« Nous opérons des dizaines de milliers d’applications sur des serveurs Bare-Metal répartis sur 10 régions cloud dans le monde entier [trois continents : Amérique du Nord, Asie, Europe, N.D.L.R] », affirment les cofondateurs de Koyeb, dans un billet de blog.

La plateforme serverless multicloud ne disparaît pas. « Dans les mois à venir, nous prévoyons une transition pour devenir un composant central de Mistral Compute et nous doublerons nos capacités serverless, d’inférence, de sandbox et d’exécution de serveurs MCP », poursuivent-ils. Les services de Koyeb seraient utilisés par plus de 100 000 développeurs.

Les forfaits gratuit et starter seront arrêtés, tandis que les clients Pro et Entreprise peuvent continuer leur déploiement normalement. La suite n’est pas encore très claire. Il n’est pas précisé si Mistral AI maintiendra les déploiements sur les 10 régions cloud.

Pour rappel, la version managée de Mistral AI Studio (La Plateforme) est actuellement hébergée sur Microsoft Azure en Europe et en partie sur Google Cloud aux États-Unis. Elle peut être hébergée sur AWS, IBM Cloud, les services de Nvidia et de Snowflake (AWS, GCP, Azure), ainsi que sur les infrastructures de SAP ou d’Outscale à la demande des clients. Il y a donc de forte chance que cette approche multicloud soit maintenue. Ce serait en tout cas une décision alignée avec les ambitions exprimées par Arthur Mensch.

« Avec l’arrivée de Koyeb à Mistral, nous permettons à nos clients de déployer des agents d’IA à grande échelle, sans aucune friction d’infrastructure et avec une scalabilité infinie », vante-t-il sur LinkedIn.

L’infrastructure est l’un des axes de développement de Mistral AI. À la fin du mois de janvier, Le Figaro rapportait que la société dirigée par Arthur Mensch et soutenue par ASML s’était rapprochée d’Ekimetrics et qu’elle lui aurait fait une offre de rachat. Une proposition déclinée par l’ESN et éditeur de solutions d’IA consacrées principalement au marketing.

Pour approfondir sur PaaS