Chaosamran_Studio - stock.adobe.
Jumeaux numériques hybrides : quand l’IA corrige la physique en temps réel
Les prédicateurs du jumeau numérique hybride issus de l’ENSAM poursuivent le développement de cette technologie. En sus des premiers projets sortis de terre pour démontrer son efficacité, les chercheurs explorent les mêmes techniques que celles utilisées par les fournisseurs de LLM. Avec des résultats prometteurs.
Lors d’une matinée organisée au mois de décembre par le club Datacraft, entreprises et chercheurs ont partagé leurs avancées en matière de jumeau numérique. Dans les faits, ce concept mêle collecte de données, prédiction, simulation et visualisation de résultats, en deux 2D et en 3D. Une telle solution peut être exploitée à des fins prospectives, de préparation ou comme le miroir d’opérations en temps réel.
Des acteurs comme Suez Digital Solutions et Egis group déploient des méthodes qui ont fait leurs preuves. Suez utilise des traitements statistiques à partir de données réelles pour détecter les fuites dans le réseau d’eau et pour assurer la maintenance préventive des pompes de ses centrales d’assainissement. Egis a déployé quatre jumeaux numériques (dont l’un servant à opérer une autoroute en Turquie) en propre. Le groupe d’ingénierie a par ailleurs participé à la construction d’une quinzaine de projets en la matière. C’est un expert du BIM, de la visualisation 2D/3D et des données SIG. Il a notamment contribué à la conception de GIROS. Ce jumeau numérique de l’estuaire de la Gironde sert à évaluer la navigabilité du port de Bordeaux en 2050. Il prend entre autres en compte les prévisions climatiques dans le but de planifier les futurs travaux d’aménagement.
Ce que tentent de régler les préceptes du jumeau numérique hybride
Toutefois, les modèles paramétriques et les autres algorithmes statistiques ne sont pas réellement combinés. Ils sont souvent utilisés pour répondre à différents cas d’usage.
« Il y a généralement deux voies pour bâtir un jumeau numérique », résume Sebastian Rodriguez Iturra, ingénieur de recherche au laboratoire AMVALOR des Arts et Métiers. « D’un côté, l’on peut s’appuyer uniquement sur la physique, en générant beaucoup de données que l’on peut comprimer pour approximer un phénomène ».
C’est typiquement ce qu’un outil de CAO combiné un à une suite de simulation permet de faire pour tenter de comprendre le comportement d’une pièce, d’un moteur ou d’un bâtiment, par exemple.
« Le problème, c’est que la physique seule ne permet pas d’approximer correctement un phénomène réel », note Sebastian Rodriguez Iturra. La réalité est souvent bien plus complexe qu’un objet physique virtuel.
« De l’autre, nous pouvons interpréter les données du monde réel », poursuit l’ingénieur de recherche. « Elles contiennent toute la physique, donc toute la complexité de phénomènes que l’on veut approximer. Mais il y a des défis en matière de quantité et de qualité. Les données sont souvent peu nombreuses, car elles sont coûteuses à collecter. La qualité n’est pas suffisante ».
Une autre approche a fait son apparition ces dernières années, celles du jumeau numérique « hybride ». C’est la thèse portée par Francisco Chinesta, enseignant-chercheur en ingénierie au laboratoire Procédés et Ingénierie en Mécanique et Matériaux (PIMM – Unité mixte de recherche CNRS/Arts et Métiers/CNAM). Il est aussi directeur scientifique chez ESI Group.
« Il s’agit de combiner les deux mondes – physique et réel – pour proposer un jumeau numérique performant en utilisant la plus petite quantité de données synthétiques possibles », relate Sebastian Rodriguez, élève et co-auteur d’un article de recherche avec Francisco Chinesta à ce sujet.
Cette combinaison consiste à utiliser un modèle physique qui reproduit un phénomène, et de l’enrichir avec des données réelles. « Ces données réelles servent à développer un modèle d’ignorance. Dans ce cas-là, l’équation de la réalité est l’adjonction de ce que l’on comprend – basé sur les lois de la physique – et de ce que l’on ignore », déclare l’ingénieur de recherche.
Le modèle d’ignorance doit corriger les prévisions du modèle physique afin d’évaluer des phénomènes plus ou moins simples à prédire, de l’évolution d’une température jusqu’à la prédiction de corrosion sur des pièces d’une structure métallique.
Les deux types de modèles peuvent s’appuyer sur des régressions polynomiales. Elles servent à réaliser une analyse statistique qui décrit la variation d’une variable ou d’un paramètre physique.
« Nous utilisons des modèles basés sur des régressions polynomiales quand nous n’avons accès qu’à une faible quantité de données et que nous voulons approximer rapidement un phénomène », avance Sebastian Rodriguez Iturra. « En revanche, ils ont un défaut majeur : la prévision est linéaire et ne peut donc pas reproduire des comportements complexes, par exemple la propagation d’une gaussienne [une courbe en cloche, N.D.L.R] ».
Les techniques de machine learning « traditionnelles » peuvent être la solution, mais cela réclame beaucoup plus de données, prévient l’ingénieur de recherche. C’est donc plus coûteux à calculer.
Les chercheurs du PIMM ont donc souhaité compresser les données tout en essayant de conservant les propriétés essentielles des phénomènes à observer.
Un autoencodeur dans un jumeau numérique
Pour cela, un type de réseau de neurones s’est imposé dans le monde du deep learning. Il est d’ailleurs essentiel à l’émergence des modèles de reconnaissance d’images, de diffusion (les VAE, utilisés dans la génération d’images), de débruitage ou encore de détection d’anomalies. Une de ses variantes est par ailleurs reconnue comme l’une des clés pour mieux comprendre les grands modèles de langage.
Ce sont les autoencodeurs. Ils sont généralement utilisés pour des tâches d’apprentissage non supervisé. Un autoencodeur est composé d’un encodeur, chargé de compresser les données essentielles que l’on souhaite conserver pour l’entraînement et d’un décodeur, pour les reconstruire (ou, par extension, les générer). Techniquement, les autoencodeurs sont entraînés pour découvrir des variables latentes dans les données d’entrée. L’ensemble de ces données « cachées » présentes dans le jeu de données d’entraînement sont dénommées l’espace latent.
« Ici, nous utilisons un autoencodeur classique. La seule différence c’est que nous allons imposer que l’espace latent recrée par le décodeur soit représenté par un procédé de décomposition en valeurs singulières (SVD) », explique Sebastian Rodriguez.
Cette technique d’algèbre linéaire doit permettre dans le cas présent de trier les informations par ordre d’importance, d’éliminer celles qui ne sont pas nécessaires et d’uniformiser l’espace de compression afin d’éviter les vides.
« Nous allons apprendre les meilleures caractéristiques de nos données. Le bruit va être filtré », justifie l’expert.
Les chercheurs et doctorants du PIMM ayant participé à sa création l’ont nommé Autoencodeur à réduction de rang (Rank Reduction Autoencoder ou RRAE). Le RRAE est bien non linéaire et peut être entraîner sur des données réelles pour compléter les prévisions d’un modèle paramétrique obtenues à l’aide d’une régression polynomiale.
« Nous obtenons un jumeau numérique qui se “corrige” en temps réel pour représenter plus fidèlement un phénomène réel », assure Sebastian Rodriguez.
Cette compression doit permettre de prendre en entrée un grand nombre de paramètres physiques. Les tests menés par les chercheurs avec 300 paramètres ont permis d’obtenir un taux d’erreur de 2 %. « C’est assez remarquable », souligne-t-il.
Il existe déjà plusieurs sortes de RRAE, dont des autocendoeurs à réduction de rang variationnel (VRRAE). Cette combinaison de modèles physique, de machine learning et de deep learning a donné lieu à des publications scientifiques entre 2023 et 2025.
Le jumeau numérique hybride sort des laboratoires
Toutefois, ce principe sort des laboratoires. Il est mis en pratique dans le cadre du projet DesCartes. Mené depuis 2022 par Fransico Chinesta, ce programme du CNRS rassemble plusieurs universités françaises, européennes, espagnoles, américaines et singapouriennes. Un certain nombre d’entreprises, dont Thales, Naval Group, CMA-CGM, EDF, ou encore Azur Drones y participent. Il est doté d’un budget de 35 millions de dollars pour équiper la ville de Singapour d’une plateforme « d’IA hybride ».
L’un des participants est une startup née pendant la première année du projet en 2024. Elle s’appelle Duoverse. Lancée officiellement en novembre 2024, la jeune pousse conseillée par Francesco Chinesta a pu mettre en place des démonstrateurs de jumeaux numériques hybrides dans la baie de Singapour. Ceux-là servent à simuler les effets du vent sur la température, la qualité de l’air, la dispersion d’aérosol polluant, la planification de trajets de drones chargé de l’inspection des bâtiments de la ville. Elle a aussi mis en place des jumeaux numériques pour l’estimation de la consommation de l’énergie et la gestion de crise. Certains tests ont également été menés à la Défense. À Marseille, il s’agit de simuler les inondations.
Duoverse ne veut pas s’arrêter là.
Une nécessaire démocratisation des techniques et des outils, selon Duoverse
« Duoverse s’attaque à trois problématiques », indique Angelo Pasquale, cofondateur et CTO de Duoverse. « Il y a un problème de compétences et d’accompagnement », liste-t-il. « La conception et le déploiement d’un jumeau numérique sont très coûteux. Même s’il est possible de générer des données synthétiques, l’accès aux ressources GPU demeure cher », ajoute-t-il. « Enfin, les directions ont encore du mal à distinguer le ROI du jumeau numérique ou alors il est trop bas ».
La DeepTech prépare en 2026 le lancement de OneTwin, une plateforme SaaS qui rassemble les capacités algorithmiques frugales s’appuyant sur le principe de jumeau numérique hybride. Angelo Pasquale évoque davantage des modèles de régression linéaire, l’analyse en composantes principales. Cependant, les autoencodeurs peuvent être envisagés suivant les besoins.
De plus, la startup ajoute des capacités de visualisation 2D/3D/réalité virtuelle en temps réel. Avec la plateforme, elle veut faciliter la mise en relation entre les data scientists, les ingénieurs et les métiers. « Les utilisateurs finaux sont souvent loin des compétences techniques : il faut donc fournir des outils intuitifs », souligne-t-il. Pour autant, les fondations techniques sont ouvertes. Il s’agit de fournir des plug-ins pour les entreprises déjà équipées d’outils de simulation et de CAO. « Nous pouvons nous adapter au choix des clients », avance Angelo Pasquale.
Il ne s’agit pas seulement de cibler les territoires, les municipalités ou les quartiers d’affaires. Selon Angelo Pasquale, Duoverse peut simuler des phénomènes physiques à petite et grande échelle, dans les mondes de la construction et de l’industrie, ce qui peut aussi intéresser les assureurs. Par exemple, la startup a lancé une collaboration avec Battery4Life, un centre de compétence autrichien pour prédire et optimiser la durée de vie des voitures électriques. Elle peut analyser la déformation des batteries, simuler les effets d’accidents, l’exposition à la surchauffe ou à des températures extrêmes, etc. De son côté, ArcelorMittal teste la simulation offerte par Duoverse pour un procédé de laminage.
