Dmitry - stock.adobe.com

Mistral AI veut séduire les grands groupes avec Le Chat Enterprise

Mistral AI considère qu’il n’est pas trop tard pour concurrencer les assistants IA les plus populaires en entreprise, à condition de jouer les bonnes cartes : relative simplicité, flexibilité et souveraineté.

La semaine dernière, Mistral AI a présenté sa réponse à Copilot, Claude, Amazon Q et l’offre Enterprise d’OpenAI, en rendant disponible Le Chat Enterprise.

Annoncé en novembre 2024, Le Chat Enterprise est pour l’instant accessible depuis la marketplace de Google Cloud, et plus tard depuis celles d’AWS et d’Azure AI.

La solution sera aussi disponible en « serverless », depuis l’infrastructure de Mistral AI (Azure), et en mode autohébergé, pour les entreprises ayant « des exigences strictes en matière de souveraineté de données et de sécurité ».

Le Chat Entrprise : une réponse à Claude, Copilot, Gemini, Amazon Q et ChatGPT

Le Chat Enterprise est à la fois un assistant à la ChatGPT et une interface conception d’agents et d’assistants IA.

Le volet Enterprise Search est bien évidemment de la partie. Mistral AI offre des connecteurs pour Google Drive, Sharepoint, OneDrive, Google Calendar et Gmail.  

C’est encore loin de la cinquantaine de connecteurs d’Amazon Q, une autre solution concurrente de Copilot. La startup française en est consciente. D’autres intégrations sont prévues sur la feuille de route de Mistral AI, par exemple vers des bases de données comme PostgreSQL et l’espace de stockage S3, d’après une courte vidéo de démonstration. En outre, l’éditeur français fournira un template pour créer des connecteurs personnalisés. Il est aussi possible d’indexer le contenu de sites Web. L’assistant peut produire des résumés des documents présents dans les bases de connaissances, maintenir une liste des fichiers les plus consultés et en produire des analyses.

Les agents semblent, pour l’instant, être de petits assistants rapidement configurables (sans code) pour des tâches relativement simples, comme la production de briefings quotidiens ou hebdomadaires à partir des informations disponibles dans Gmail et Google Calendar, l’aide à la formation ou encore l’analyse préparatoire de fichiers CSV.

La prise en charge de Model Context Protocol (MCP) est également au programme. L’idée est d’assurer une large compatibilité avec les systèmes IT les plus déployés en entreprise. Mistral AI dit garantir un respect strict de la liste de contrôle d’accès en lien avec l’outil RBAC déployé par ses clients. Elle propose aussi un suivi des audits et des coûts.

Medium 3, un LLM multimodal de taille moyenne à prix mini

La version du Chat Enterprise présentée la semaine dernière serait propulsée par Mistral Medium 3, un LLM multimodal de taille moyenne qui se rapprocherait ou égalerait les performances de Llama 4 Maverick (402 milliards de paramètres), GPT-4o, Claude Sonnet 3.7, Cohere Command A (111 milliards de paramètres) et DeepSeek 3.1 (560 milliards de paramètres).

Comme le modèle est propriétaire, Mistral AI est à son habitude discrète sur ses spécifications techniques. La documentation du fournisseur renseigne uniquement une fenêtre de contexte de 128 000 tokens, contre 32 000 tokens pour le premier Mistral Medium.

Mistral AI souhaite surtout proposer un modèle financièrement compétitif : 0,4 dollar pour un million de tokens en entrée et 2 dollars pour un million de tokens en sortie. À titre de comparaison, Claude 3,7 Sonnet est facturé 3 dollars pour un million de tokens en entrée, et 15 dollars pour un million de tokens en sortie. L’appel à Cohere Command A coûte 2,5 dollars pour 1 million de tokens en entrée, et 10 dollars en sortie.

Mistral Medium 3 est déjà accessible via La Plateforme, Amazon SageMaker, et « bientôt » sur Nvidia NIM, Azure AI Foundry et Google Vertex AI.

À l’instar du Chat Enterprise, Mistral AI précise que Mistral Medium 3 peut aussi être déployé derrière un VPC, en cloud privé ou sur site. Le LLM nécessiterait a minima un serveur doté de quatre GPU Nvidia – probablement des cartes H100, comme le suggère la page Web du catalogue Nvidia.

La startup ne précise pas la tarification de cette offre dédiée aux grands groupes. Si Medium 3 semble être le LLM utilisé par défaut, la société indique que l’interface de l’environnement, les modèles et l’accès aux outils dans Le Chat Enterprise peuvent être développés et intégrés à façon. Mistral AI précise par ailleurs être en train de peaufiner le contenu des offres Le Chat Pro et Team.

Mistral AI triple son chiffre d’affaires en 100 jours

Clairement, la startup accuse un certain retard face à OpenAI, Microsoft Azure, Google Cloud et AWS. Ce ne serait pas pour autant un frein à sa croissance. D’après les propos recueillis par Reuters, Arthur Mensch, cofondateur et PDG de Mistral AI, assure que la startup a triplé son chiffre d’affaires les 100 derniers jours avant le déploiement du Chat Enterprise, le 7 mai dernier. Cette croissance serait principalement observée en Europe et en dehors des États-Unis. Pour rappel, l’éditeur avait annoncé en avril un partenariat stratégique avec CMA-CGM. Le contrat d’une valeur de 100 millions d’euros sur cinq ans concerne le déploiement de solutions d’IA personnalisées pour le géant français du fret maritime.

Si le dirigeant note que l’intérêt pour les solutions européennes est croissant chez les grands groupes français, il précise que son offre commence à faire mouche outre-Atlantique.

Pour approfondir sur IA appliquée, GenAI, IA infusée