SUSE facilite l’usage de l’IA par les métiers avec son AI Factory
La nouvelle solution logicielle SUSE AI Factory présente une interface simple pour que les métiers déploient en quelques clics un Kubernetes capable d’exécuter leurs tâches d’inférence. Elle installe aussi les modules de Nvidia sous licence, sans contrat américain.
Après Nutanix, l’éditeur SUSE se lance à son tour dans le kit clés en main pour déployer un cluster Kubernetes dédié à l’exécution des applications d’IA sur site. C’est-à-dire sans rien avoir à payer à un quelconque service cloud. Le produit est baptisé SUSE AI Factory et il est dévoilé cette semaine à l’occasion de la conférence annuelle SUSECON qui se tient à Prague.
SUSE AI Factory est une extension de SUSE AI tout court. Cette dernière est une distribution Kubernetes équipée des bibliothèques nécessaires aux développeurs pour écrire des applications d’IA et que SUSE propose depuis environ un an et demi avec son interface d’administration Rancher Prime.
« Nous avons pris conscience qu’il manquait aux entreprises une version plus simple, qui permettrait aux métiers d’assembler simplement les modules de SUSE AI pour obtenir une plateforme qui exécute l’inférence sur leurs données, l’analyse des flux, etc. » explique Rhys Oxenham, le directeur de division AI chez SUSE.
Commercialisé d’ici à cet été, SUSE AI Factory installe et met en route sur une batterie de serveurs tous les containers (modèles d’IA, agents, interfaces, bases vectorielles, etc.) qui correspondent au scénario d’usage que l’on a sélectionné dans son interface. Outre des composants Open source, un accord passé avec Nvidia permet à son interface d’installer aussi les modules de la suite Nvidia AI Enterprise.
Une IA Open source sur site, souveraine et avec Nvidia
« Pour Nvidia, ce partenariat avec SUSE est important à plus d’un titre. D’abord, les entreprises nous réclament de faire fonctionner AI Enterprise en dehors du cloud. Elles veulent utiliser cette plateforme depuis leurs sites, où toutes leurs données sensibles sont stockées. Et nous avons donc besoin de travailler avec des fournisseurs qui vont nous permettre d’aller sur ce terrain des datacenters privés, un marché que nous ne connaissons pas », lance John Fanelli, le patron des logiciels d’entreprise de Nvidia, lors du discours d’ouverture de la conférence SUSECON 2026.
« Et nous sommes particulièrement intéressés de travailler avec SUSE, parce que c’est un acteur qui mise sur l’Open source du sol au plafond, une tendance que nous voulons à présent embrasser. Et c’est aussi un fournisseur européen qui a la capacité de nous emmener avec lui sur des marchés régulés, où la souveraineté est une condition sine qua none », ajoute-t-il.
De fait, SUSE est historiquement une société allemande qui appartient aujourd’hui au fonds d’investissement suédois EQT Partners. Dans le partenariat qui le lie à Nvidia, c’est SUSE qui revendrait la suite Nvidia AI Enterprise et qui en assurerait le support via son logiciel SUSE AI Factory. Les clients ne signeraient aucun contrat américain et auraient l’éditeur allemand pour unique interlocuteur.
De son côté, Nvidia sent manifestement le vent tourner du côté de ses clients historiques, les hyperscalers américains. Au point que son patron, Jensen Huang, a déclaré, lors de sa dernière conférence GTC, que 2026 serait l’année où l’économie de l’IA basculerait de l’entraînement des modèles en cloud public à leur utilisation sur site. Une prédiction qui a immédiatement motivé la mise au point de solutions dédiées à l’IA chez tous les fournisseurs d’équipements pour datacenters.
Il ne restait plus qu’à développer des systèmes capables d’exécuter Nvidia AI Enterprise sur ces équipements. Tous les modules de cette suite logicielle sont au format container. Nutanix, SUSE, mais aussi la CNCF s’efforcent donc d’assembler une plateforme à partir de Kubernetes, l’orchestrateur Open source qui fait office de standard pour exécuter des containers.
Une console pour bâtir simplement une plateforme d’IA
« Le but de SUSE AI Factory est d’aider les utilisateurs à déployer chez eux une infrastructure d’IA, laquelle est intrinsèquement assez complexe », explique Alessandro Festa, le directeur Produits de la division AI chez SUSE. « L’enjeu est d’installer les meilleurs composants que nous ou nos partenaires pouvons fournir, en partant véritablement de zéro », précise-t-il en se lançant dans une démonstration du logiciel sur le stand dédié à la solution.
Sur son écran, la console présente une frise chronologique des étapes nécessaires à l’assemblage d’un prototype selon un cas d’usage. « Vous pouvez partir sur un projet d’inférence, sur un projet d’entraînement de modèle, sur un projet de développement d’une application d’IA, etc. », énumère-t-il.
Pour analyser des données en continu, l’interface propose entre autres Apache Airflow, pour l’inférence, Ollama, pour développer son propre chatbot, Open WebUI. Si l’on a pris l’option Nvidia, ses modules NIMs sont aussi disponibles. Et comme ils sont fournis par SUSE, il n’y a pas de clé d’API Nvidia à entrer. Cette clé est ce qui permet à Nvidia de facturer lui-même l’utilisation de sa plateforme, sur d’autres solutions.
On connecte ensuite les éléments entre eux depuis une interface qui les montre tous. Une présentation à la GitHub permet de réviser les prototypes successifs qu’on assemble. Le projet est présenté comme un bundle. Un bouton permet même de générer automatiquement un fichier ReadMe qui explique ce que le bundle est censé faire.
Quand Alessandro Festa appuie finalement sur le bouton « deploy », la console installe sur la cible indiquée tous les modules prévus, pour l’heure uniquement depuis les dépôts de SUSE. Cela pourra être à partir de ceux d’un partenaire à l’avenir.
« Vous pouvez partir d’une machine vierge sur laquelle USE AI Factory installera notre Linux, notre Kubernetes. Ou vous pouvez déployer nos modules sur un cluster Kubernetes existant. SUSE AI Factory va dans ce cas détecter ce qui existe déjà et vous proposera d’éventuellement remplacer quelque chose par une version que nous pouvons maintenir », dit notre interlocuteur, alors que la console repère une installation générique d’OpenTelemetry qui gagnerait à être changée.
« Quoiqu’il arrive, SUSE AI Factory va s’assurer que toutes les dépendances fonctionnent, mais dans le cas d’un projet que vous souhaitez mettre en production, je vous recommande vivement de remplacer vos vieux composants par des packages couverts par un support contractuel », ajoute-t-il.
Compatible tous Kubernetes, Rancher Prime en option
SUSE AI Factory gère les mises à jour, celles des modules, comme celle du projet. La console sait aussi exporter le bundle au format Helm, pour que l’utilisateur puisse l’installer à la main sur un autre cluster Kubernetes auquel SUSE AI Factory n’a pas forcément accès.
La console fonctionne soit de manière autonome, soit comme une sous-rubrique de Rancher Prime, le logiciel de SUSE pour administrer les infrastructures Kubernetes.
« Rancher Prime n’est pas nécessaire pour utiliser SUSE AI Factory, qui a ses propres opérateurs de déploiement Kubernetes et qui va savoir quels binaires déployer selon votre matériel. Cependant, utiliser Rancher va vous donner un meilleur contrôle sur les machines qui exécutent votre projet dans un cluster, typiquement pour décider la quantité de ressources à lui allouer », précise Alessandro Festa.
