zapp2photo - stock.adobe.com

Informatique quantique : Multiverse Computing lève 215 millions $ pour compresser les LLM

La société espagnole, spécialiste de l’IA quantique, promet de réduire la taille des grands modèles de langage de 95 %, sans perte de performance. Une alternative radicale aux approches classiques de compression.

C’est depuis Saint-Sébastien en Espagne que la société spécialisée dans l’IA et l’informatique quantique, Multiverse Computing, vient de lever 215 millions de dollars (189 millions d’euros) dans le cadre d’un tour de table mené par Bullhound Capital.

L’objectif de cette levée est d’accélérer le déploiement de sa technologie – baptisée CompactifAI – de compression de grands modèles de langage (LLM) au cœur de l’IA générative.

Commercialisé pour la première fois en 2024, CompactifAI permettrait de réduire la taille des grands modèles de langage (LLM) jusqu’à 95 %, tout en conservant des performances comparables à celles des modèles originaux. La promesse tranche avec les techniques de compression classiques, comme la quantization ou le pruning, qui dégradent significativement la précision des modèles.

CompactifAI s’appuie sur une approche issue des réseaux de tenseurs (Tensor Networks), un domaine de recherche à la croisée de la physique quantique et de l’apprentissage statistique. Cette approche permettrait, selon Román Orús, directeur scientifique et cofondateur de Multiverse, « d’optimiser des modèles d’IA en supprimant des milliards de corrélations inutiles ».

Du côté des résultats, des versions compressées de modèles comme Llama, Mistral ou DeepSeek, seraient jusqu’à 12 fois plus rapides à exécuter, avec une réduction des coûts d’inférence de 50 à 80 %.

Ces modèles peuvent tourner dans un cloud, dans des datacenters privés, mais aussi sur des appareils en edge comme des smartphones, des ordinateurs portables, ou même des Raspberry Pi.

« Ce qui a commencé comme une avancée dans la compression de modèles s’est rapidement avérée transformatrice [dans] sa capacité à réduire radicalement les exigences matérielles pour l’exécution des modèles d’IA », a déclaré Enrique Lizaso Olmos, fondateur et PDG de Multiverse. « L’idée selon laquelle réduire un LLM implique forcément un compromis sur la qualité est fausse. Nous changeons les règles du jeu ».

Cette avancée positionne Multiverse Computing à l’intersection de l’IA, du calcul haute performance (HPC) et du quantique.

L’entreprise revendique déjà une centaine de clients dans le monde, dont Iberdrola (producteur d’énergies), Bosch ou la Banque du Canada, et plus de 160 brevets. Elle a été récompensée en 2024 par le prix Future Unicorn de DigitalEurope et figure dans le classement CB Insights des 100 entreprises IA les plus prometteuses. Elle était également présente à l’édition 2025 du forum France Quantum.

Ce tour de table, qui inclut des investisseurs industriels comme HP Tech Ventures, Toshiba ou encore Santander Climate VC, marque une volonté d’industrialiser la technologie pour s’attaquer à un marché de l’inférence estimé à 106 milliards de dollars dans l’inférence de l’IA.

Pour Per Roman, associé chez Bullhound Capital (fonds d’origine britannique), Multiverse poserait une « brique technologique fondamentale » pour bâtir une IA plus frugale et plus souveraine.

Pour approfondir sur Data Sciences, Machine Learning, Deep Learning, LLM