Météo France : plus d'IA pour mieux prédire les événements extrêmes

Pour Météo France, l’IA promet d’optimiser les prévisions météorologiques. Toutefois, son adoption pose plusieurs défis en matière de compétences, d’accès aux ressources de calcul, de mix entre modèles physiques et d’IA.

Outre le défilé de personnalités politiques et l’intervention des organes du gouvernement, Adopt AI était l’occasion pour plusieurs industries de partager des cas d’usage ou les promesses de l’IA.

Dans les sessions auxquelles a pu assister LeMagIT, l’IA générative n’était pas forcément le centre de l’attention. Les industriels, les entreprises, les organisations explorent différentes nuances d’intelligence artificielle. À commencer par le machine learning et la computer vision.

Les promesses de l’IA au service de la météo

C’est le cas de Météo France. Les prévisions météorologiques de l’institut public sont majoritairement réalisées à l’aide de modèles de prévision numérique du temps. Deux d’entre eux sont utilisés de longue date : Arpège et Arome. Utilisé depuis le début des années 1990, Arpège est un modèle couvrant l’ensemble du globe avec une maille d’environ 5 km sur la France métropolitaine (24 km aux antipodes) et permet d’obtenir des prévisions des dépressions ou les anticyclones jusqu’à une échéance de quatre jours. 

En 2008, Météo France a complété son dispositif avec Arome, un modèle affiné avec une maille de 1,3 km (et 2,5 km en Outre-Mer) pour prévoir les orages, les averses ou le brouillard en France Métropolitaine, aux Antilles, en Guyane et en Corse. Météo France exploite également des modèles britanniques (CEPMMT) et américains.

Outre le volume de données conséquent nécessaire, les simulations sont lourdes en calcul.

« En pratique, utiliser des émulateurs IA à la place des modèles numériques traditionnels que nous utilisons aujourd’hui peut être simplement meilleur, plus rapide et moins coûteux », affirme Virginie Schwarz, PDG de Météo France, en photo en haut d’article, lors d’une table ronde d’Adopt AI au Grand Palais, le 26 novembre. « Cela pourrait accélérer la production de nos prévisions et permettre de les réaliser avec des besoins informatiques beaucoup plus réduits, du moins pour la phase de production ». 

Si les entraînements restent coûteux, gourmand en calcul, la présidente de Météo France envisage que l’inférence aura « un impact environnemental moindre par rapport à [ses] méthodes actuelles ».

« Cela permettra de produire nos prévisions en quelques minutes plutôt qu’en plusieurs heures aujourd’hui », envisage-t-elle. « Cela signifie des prévisions sur de plus longues durées, des rafraîchissements plus fréquents, une amélioration de l’information au niveau local et un meilleur suivi des événements extrêmes ».

D’un point de vue technique, la météorologie se prête bien à l’exercice de l’IA. Les services nationaux comme Météo France ont engrangé de large volume de données au cours des dernières décennies, ainsi que les résultats des prédictions des modèles paramétriques. D’autant que certains événements, dictés par le changement climatique, nécessitent d’améliorer les systèmes d’alerte. En cela, l’IA pourrait « changer la donne ».

Météo France vit une « période de transition »

« Nous intégrons de plus en plus l’IA dans tout ce que nous faisons », précise Virginie Schwarz.

Météo France est à la tête du projet du programme financé par la Commission européenne, « Destination Earth » (ou DestinE). Celui-ci a été lancé en 2022 par l’ECMWF, le centre européen pour les prévisions météorologiques à moyen terme. L’objectif est de former un jumeau numérique de la Terre afin de simuler des événements climatiques extrêmes.

« Ce projet a commencé comme un projet de prévision météorologique numérique traditionnel. Puis, au fil des années, nous avons commencé à l’introduire de l’IA dans le projet », indique Virgine Schwarz. « Aujourd’hui, alors que nous discutons de la nouvelle phase de Destination Earth, nous envisageons un pilier entièrement dédié à l’IA ».

D’autres cas d’usage d’IA sont en cours. En 2024, Météo France a lancé un service de prédiction du brouillard sur la Seine. « Grâce à ce service basé sur l’IA, nous avons amélioré de 20 points la qualité des informations fournies aux autorités de navigation », vante la PDG.

L’institut exploite également des webcams publiques à haute résolution pour détecter à l’aide d’algorithmes de vision par ordinateur la présence et la quantité de neige dans les zones jusque-là non surveillées.

 Par ailleurs, certaines parties « les plus coûteuses » de la modélisation climatique sont déjà confiées à des algorithmes de machine learning.

Pour autant, « il est encore trop tôt pour déterminer précisément l’équilibre entre les informations basées sur l’IA et celles basées sur la physique traditionnelle », juge Virgine Schwarz. L’institution doit s’assurer d’un haut degré de confiance des résultats. Ainsi, Météo France vit une « période de transition ».

De fait, les modèles physiques côtoient les modèles d’IA, ce qui « entraîne une forte pression sur les ressources » de Météo France. « Nous avons probablement besoin de plus de GPU pour travailler sur l’IA. Nous avons également besoin de plus de personnel », liste-t-elle. Cela réclame à la fois de recruter des ingénieurs et data scientists tout en formant le personnel existant. Or « les ressources sont rares ».

La mise en commun des ressources de calcul et des projets de recherche européens

Un problème généralisé en Europe. D’où le partenariat avec l’ECMWF et les services nationaux de météorologie dans l’UE.

« Les partenariats en dehors du domaine météorologique sont également très importants. Par exemple, en France, nous avons un partenariat avec l’INRIA », ajoute Virginie Schwarz. « Ce partenariat est essentiel, tout comme celui avec la Commission européenne concernant Destination Earth qui soutient l’émergence des infrastructures de calcul indispensable ».

La prévision du climat est l’un des cas d’usage qui sera portée par les programmes de supercalculateurs EuroHPC.

« Par le passé, c’était difficile parce que chaque pays essayait de construire sa propre machine », rappelle Cristian Canton, directeur associé du centre de supercalcul de Barcelone, lors de la même table ronde. Il fallait parfois passer par les fournisseurs américains. « L’initiative a donc consisté à mettre l’argent dans le même panier. Chaque année, nous mettons à jour l’un des six grands superordinateurs en Europe. Cette année, nous avons mis à jour Jupiter en Allemagne. L’année prochaine, ce sera le superordinateur français, puis l’Italie et enfin l’Espagne avec MareNostrum », relate-t-il.

« Cela crée une opportunité unique de disposer de très grandes ressources de supercalcul que nous n’avions pas auparavant ».

À cela s’ajoutent les usines IA et les gigafactories, qui seront plutôt réservées aux entreprises. « Cela garantit que l’Europe aura une certaine autonomie dans le pilotage de ce que nous voulons faire à l’avenir ».

Crédits photo : Gaétan Raoul – LeMagIT

Pour approfondir sur IA appliquée, GenAI, IA infusée