
Phawat - stock.adobe.com
L’IA générative débarque chez OVHcloud
Pour compléter sa Data Platform, OVHcloud sort un outil (AI Endpoints) pour intégrer et déployer des modèles d’intelligence artificielle générative. L’offre se veut à la fois souveraine et sobre, face à des concurrents comme AWS Bedrock ou Google Vertex AI.
OVHcloud sort officiellement un portefeuille de services d’intelligence artificielle générative : AI Endpoints, une solution cloud serverless pour intégrer ces modèles dans des applications métiers.
La plateforme propose à son lancement une quarantaine de modèles parmi les plus populaires de l’écosystème open source et open weight : Llama 3.3 70B, Mixtral 8x7B, Mistral Nemo et Llama 3.1 8B (deux Small Model Languages), Codestral Mamba, Qwen 2.5 Coder 32B (générateurs de code), Qwen 2.5 VL 72B, ou encore Stable Diffusion XL (pour la génération d’images).
On y retrouve également des modèles spécialisés dans la transcription (ASR), la synthèse vocale (TTS) ou le raisonnement (DeepSeek-R1). La liste est non exhaustive et sera amenée à évoluer. Il est également possible de se connecter à OpenAI via l’API de ce dernier.
Pour OVHcloud, cette approche reste cependant une alternative souveraine aux grands éditeurs américains. Fidèle à sa stratégie « souveraine », OVHcloud héberge AI Endpoints dans ses centres de données, en particulier celui de Gravelines, en France.
Faciliter le déploiement des modèles open-weight
L’objectif est également de rendre les modèles open weight immédiatement exploitables, en particulier dans des environnements de production. Le service permet, par exemple, d’alimenter des chatbots, des assistants vocaux, des outils de transcription automatique, des agents de codage ou encore des applications analytiques – illustre OVH.
En beta depuis plusieurs mois, le service est officiellement disponible cette semaine.
« AI Endpoints permet aux développeurs d’intégrer facilement les modèles […] en toute confiance dans l’infrastructure souveraine d’OVHcloud », résume Yaniv Fdida, chief product and technology officer du Nordiste.
La tarification repose sur le nombre de jetons consommés par minute et par modèle, dans une logique de « pay-as-you-go ». Avant un déploiement, les utilisateurs peuvent expérimenter les fonctions d’IA dans une sandbox pour tester les performances et la pertinence des modèles sélectionnés.
Une alternative souveraine à AWS Bedrock et Vertex AI
Le cloudiste insiste par ailleurs que ses serveurs sont « refroidis à l’eau dans des datacenters “respectueux de l’environnement” ». Cette approche permettrait de « minimiser l’impact de l’IA, sans compromis sur la performance ». Un point important dans un contexte où les usages IA sont de plus en plus critiqués pour leur consommation excessive d’énergie et de ressources.
Avec sa Data Platform lancée il y a à peine quelques jours, OVHCloud entrait dans la cour des acteurs américains de la PaaS (Google Big Table, Microsoft Fabric, Snowflakes, Databricks, etc.). Avec AI Endpoints, OVHcloud complète cette incursion. Il se positionne face aux mêmes acteurs, mais sur d’autres pans de leurs offres AWS Bedrock, Google Vertex AI, Azure AI Foundry, sans oublier Databricks Mosaic.AI et Snowflakes Cortex.