Avec Mistral AI, Nvidia s’affiche en fer de lance de l’IA souveraine
En soutenant l’IA souveraine, Nvidia entend bien maintenir son quasi-monopole en Europe dans la fourniture d’infrastructures dédiées à l’IA, et plus largement à la simulation par ordinateur.
Que retenir de la GTC parisienne de Nvidia ? Il était convenu qu’aucun nouveau produit ne serait annoncé. Pourtant, Jensen Huang, PDG du groupe, s’est évertué à passer en revue l’offre actuelle du géant fabless des puces graphiques et IA, tout en multipliant les annonces de partenariats avec des entreprises françaises et européennes.
D’abord (et c’est le plus retentissant) avec Mistral AI, qui lancera une offre de calcul. Mistral Compute fournira une panoplie de service d’hébergement de charges de travail IA, du Bare Metal au PaaS. « Hébergée » et « gérée » en Europe, cette plateforme sera propulsée par 18 000 GPU Blackwell (B200) et Blackwell Ultra (B300) dont la première phase de déploiement sera initiée à travers « plusieurs sites » en 2026.
« Non seulement nous étendons nos capacités d’entraînement en propre, mais nous allons fournir à nos clients notre puissance de calcul. »
Arthur MenschCEO et confondateur, Mistral AI
L’un d’entre eux est un data center construit par Eclairion et administré par Fluistack à Bruyères-le-Chatel, en Île-de-France. S’étalant sur 1 000 mètres carrés, il est doté d’une capacité initiale de 40 mégawatts et pourrait atteindre 100 mégawatts. « Nous sommes en train d’installer les racks », a expliqué Arthur Mensch, cofondateur & CEO de Mistral AI, auprès de France Info.
Mistral AI en passe de devenir un fournisseur de cloud souverain
Les services de Mistral AI devront servir aux entreprises pour déployer des applications d’IA générative et des agents, mais aussi profiter de capacités d’entraînement. La startup indique que son offre HPC dédiée à l’IA livrera des services Bare Metal, IaaS, un studio de conception pour des déploiements privé et un autre pour une prise en main plus rapide.
« Non seulement nous étendons nos capacités d’entraînement en propre, mais nous allons fournir à nos clients notre puissance de calcul », a poursuivi Arthur Mensch au micro de France Info. Mistral AI entend proposer le « cluster le plus performant en France », tout en reprenant les « clés du camion » des mains des fournisseurs de cloud américains et chinois, afin de les partager avec les entreprises clientes de ses services.
Pour soutenir cette activité, Mistral AI prévoit d’engager 150 collaborateurs supplémentaires d’ici à la fin de l’année. La société comptera alors 400 employés.
« L’IA souveraine est un impératif ; aucune entreprise, industrie ou nation ne peut externaliser son intelligence. »
Jensen HuangPDG Nvidia
Thales, Schneider Electric, SCNF, Veolia, BNP Paribas, Mirakl, Orange, Kyutai et Black Forest Labs seront les premiers clients et partenaires de Mistral Compute.
Selon la startup, la suite d’outils de Mistral AI sera également disponible sur site et chez les autres fournisseurs cloud, dont les acteurs souverains. À l’inverse, Nvidia accueille les derniers modèles de Mistral AI à travers ses microservices NIM, Magistral inclus.
« L’IA souveraine est un impératif ; aucune entreprise, industrie ou nation ne peut externaliser son intelligence », déclare Jensen Huang, dans un communiqué de presse. « Nous sommes ravis que Mistral AI construise de grands modèles de langage et mette en place une infrastructure d’IA à travers l’Europe à partir des équipements de Nvidia ». Le dirigeant considère que « l’Europe s’est enfin réveillée » concernant « l’importance des infrastructures d’IA ».
La notion d’IA souveraine serait si importante pour l’activité de Nvidia qu’elle a le droit à un slide dans la présentation de son activité auprès de ses investisseurs.
Emmanuel Macron, président de la République, a qualifié ce partenariat « d’historique ». Le chef d’État a félicité Arthur Mensch, cofondateur et CEO de Mistral AI parce que son entreprise grimpe dans la « chaîne de valeur » de l’IA.
L’avènement des usines d’IA européennes
De son côté, le fournisseur de cloud Scaleway, qui a déployé près d’un millier de GPU de la série Hopper, se prépare à installer des GPU Blackwell, sans que les deux partenaires en indiquent le nombre.
Scaleway et Mistral AI rejoindront le projet DGX Lepton. Derrière ce nom se cache une suite lancée par Nvidia pour permettre aux développeurs d’orchestrer des charges de travail multicloud, hybride et Edge depuis un control plane fourni par Nvidia. Alors qu’il n’avait convaincu qu’Oracle et les spécialistes des infrastructures GPU comme CoreWeave, Crusoe, Firmus, Lambda ou encore Yotta, Nvidia a également annoncé qu’AWS et Microsoft rallient cette « place de marché ». Tout comme Nebius, Nscale, Firebird, Fluidstack Hydra Host et Together AI.
L’entité Orange Business, elle, rejoint le réseau Nvidia Cloud Partners. Le fournisseur entend, entre autres, propulser son offre SaaS souveraine Live Intelligence, consacrée aux développements d’assistants et de bases de connaissances RAG, à l’aide de GPU Nvidia.
Par ailleurs, Schneider Electric a annoncé qu’il développerait avec le géant fabless des systèmes de refroidissement, d’alimentation et de gestion de bâtiments et de contrôle afin de bâtir des « usines d’IA ».
Schneider Electric inscrit ce partenariat dans le plan d’action pour un continent de l’IA de la Commission européenne. Il vise à créer « au moins 13 usines d’IA à travers l’Europe et jusqu’à cinq gigafactories d’IA ».
Ces usines, selon la Commission européenne, correspondent à la mise à disposition de services de calcul à travers les EuroHPC (comme le supercalculateur Jean Zay), de moyens de formations, d’incubateurs de startups et d’espaces de données au service de secteurs et de technologies clés.
« Les usines d’IA font désormais partie de l’infrastructure d’un pays », a déclaré Jensen Huang lors de la conférence. « C’est la raison pour laquelle nous parcourons le monde pour parler aux chefs d’État, parce qu’ils souhaitent tous avoir des usines d’IA. Ils veulent que l’IA soit un vecteur de croissance pour eux ».
« En deux ans, nous allons multiplier par dix la puissance de calcul disponible en Europe », promet Jensen Huang. « Le problème d’accès au GPU sera bientôt résolu », assure-t-il. Un enthousiasme qu’il faudra mesurer à l’aune des capacités de production de TSM.
Et Schneider Electric d’annoncer de nouveaux modules et racks de la gamme EcoStruxure, dont un système de racks « inspiré de l’Open Compute Project » afin de prendre en charge le fameux GB200 NVL72 de Nvidia (3 millions de dollars pièce, selon Jensen Huang).
Le PDG de Nvidia a également rappelé que Schneider Electric et sa filiale britannique Aveva utilisent et utiliseront le service Omniverse de Nvidia pour développer des jumeaux numériques de systèmes électriques et des usines conçues à l’aide de la suite logicielle Aveva.
Une plus grande dépendance à Nvidia
Le géant fabless a conscience de son empreinte technologique dans le monde de l’IA, de la recherche et auprès des industries manufacturières. Une forme de dépendance qu’il compte bien maintenir, en ligne avec son modèle économique. En ce sens, Nvidia entend accroître sa présence dans sept pays par la mise en place de centres technologiques de l’IA. « L’objectif de ces centres est d’abord de lancer des recherches collaboratives, de travailler avec les startups et de bâtir des écosystèmes autour de la stack Nvidia », explique Jensen Huang.
Ces écosystèmes rassemblent des instituts de recherche, des éditeurs de logiciels et de jeux vidéo, des startups, des ESN, des entreprises clients, des fournisseurs de cloud locaux, des hyperscalers ou encore des équipementiers. Bref, toutes les entités susceptibles de mettre à disposition ou de consommer des GPU Nvidia. Parmi les clients français, Nvidia cite Alice&Bob, Bouygues construction, SNCF Gares&Connexions, EDF et le ministère de l’Économie et des Finances (pour la détection de fraudes).
Les centres technologiques seront implantés en Allemagne, en Italie, en Espagne, au Royaume-Uni, en Suède et en Finlande, en sus du centre français.
Mais Nvidia a également annoncé qu’il créerait un cloud industriel pour les manufacturiers européens. Il sera déployé en Allemagne et sera propulsé par 10 000 GPU installés dans des systèmes DGX B200 et des serveurs RTX Pro. Ce cloud hébergera les logiciels de Siemens, Ansys, Cadence et Rescale. Nvidia espère convaincre des clients existants, dont Mercedes Benz, le groupe BMW, Maserati ou encore Volvo.
« Nous sommes présents en Europe depuis de nombreuses années, depuis l’émergence de la CAO », rappelle Jensen Huang. Désormais, il s’agit de supporter l’avènement des jumeaux numériques, de l’IA, de la robotique et de l’informatique quantique.