ESA/Hubble, N. Bartmann

HPC : une nouvelle analyse des données de Hubble révèle l’atmosphère de plusieurs exoplanètes

Une équipe de recherche en astronomie a repris dix ans de données du télescope spatial Hubble. Grâce à de nouveaux modèles, à une équipe pluridisciplinaire et à un supercalculateur accéléré avec des GPU, elle a percé à jour l’atmosphère de vingt-cinq planètes en dehors de notre système solaire.

Notre connaissance de l’univers a considérablement grandi lors du siècle passé. Longtemps, une des questions majeures de l’astronomie a par exemple été de savoir s’il existait des planètes (rarement ? beaucoup ?) dans les autres systèmes solaires. La question est aujourd’hui tranchée : autour de chaque étoile que nous pouvons admirer dans le ciel nocturne gravitent nombre de planètes semblables à celles que nous connaissons dans notre propre système solaire. On les appelle les « exoplanètes ».

Le débat est donc clos. Mais si la question de leur existence a été débattue pendant si longtemps, c’est que l’observation des exoplanètes n’est pas chose facile. Par définition, une planète n’est pas un astre ; elle n’émet pas de lumière. Or l’astronomie est une science qui s’appuie sur l’analyse de la lumière (et des ondes en général). Autrement dit, nous étions aveugles aux exoplanètes.

Mais le progrès technologique et l’évolution des outils d’observation ont changé la donne.

Hubble et les exoplanètes

La sensibilité des télescopes a tellement augmenté qu’il est devenu possible de mesurer la perturbation infime de la lumière émise par une étoile lointaine quand un petit objet (comme une planète) passe devant elle. Ces variations minimes de luminosité – parmi d’autres méthodes (comme l’analyse des vitesses radiales) – ont permis de clore le débat des exoplanètes. Un peu comme si un capteur lumineux repérait, depuis Strasbourg, la présence d’un papillon de nuit qui passerait devant le phare de la Vieille, à la Pointe du Raz.

Une telle finesse de mesure est un exploit qui a demandé de nouveaux outils. Parmi eux, le télescope Hubble mis en orbite en 1990 a représenté une avancée révolutionnaire. Ses observations depuis l’espace ont fourni – et continuent de fournir – une masse considérable d’informations sur les exoplanètes et sur les fins fonds de notre univers (ou, plus rigoureusement, sur notre « univers observable », car une partie de l’univers – qui est bien trop grand – nous restera à jamais cachée).

Ce sont ces données archivées qu’une équipe internationale a décidé de compulser et de traiter à nouveau, en utilisant les avancées des GPU de nouvelle génération, pour tenter d’en apprendre plus sur l’atmosphère des planètes hors de notre système solaire.

Jupiters chaudes et HPC accéléré

L’équipe s’est concentrée sur l’étude de vingt-cinq « Jupiters chaudes », des géantes gazeuses semblables à notre Jupiter (la plus grande planète de notre système solaire dont les astronomes disent qu’avec « un peu plus » de matière, elle aurait pu devenir une étoile). Seule différence, ces Jupiters lointaines ont une température nettement plus élevée (plus de 730°C contre -163°C sur « notre » Jupiter).

L’analyse de dix années d’images de ces vingt-cinq planètes s’est faite en utilisant un supercalculateur, dont les traitements ont été accélérés grâce à des GPU. Grâce à une capacité astronomique de traitement, les chercheurs ont pu compulser 1 000 heures d’observations – soit le plus grand nombre de données jamais utilisées dans une étude de ces corps, dixit NVIDIA qui a fourni les GPU en question.

Depuis, les résultats de cette étude ont été rendus publics. « La quantité d’informations que nous avons apprises sur la chimie et la formation [de ces exoplanètes] – grâce à une décennie de campagnes d’observation intenses – est incroyable », s’enthousiasme Quentin Changeat, chercheur à l’University College London (UCL) et responsable du projet. « Hubble a permis de les caractériser de manière approfondie ».

« Ces travaux contribuent aussi à élaborer des modèles pour mieux expliquer la façon dont la Terre et les autres planètes ont vu le jour », renchérit Ahmed F. Al-Refaie, co-auteur de l’article et responsable des méthodes numériques au Centre de données spatiales exochimiques de l’UCL.

Une équipe « data » pluridisciplinaire

Pour percer le mystère de ces atmosphères, Quentin Changeat et son équipe ont d’abord dû déterminer quels ensembles de modèles devaient être exécutés, de manière cohérente, sur les données de Hubble afin d’obtenir les résultats les plus fiables et les plus révélateurs possibles.

« Cela a été une période d’exploration incroyable – je trouvais toutes sortes de solutions… parfois bizarres », plaisante le chercheur. Chacun des quelque vingt modèles a été exécuté 250 000 fois sur chacune des vingt-cinq exoplanètes. Soit plusieurs millions de calculs.

Quentin Changeat insiste aussi sur la dimension pluridisciplinaire de son équipe. « Elle était composée de spécialistes de l’observation spatiale, de data analystes, d’experts en machine learning et d’autres des logiciels – c’est ça qui a rendu ce travail possible ».

Des traitements massivement parallèles

Concrètement, le logiciel de l’équipe de recherche a étudié la façon dont des centaines de milliers de longueurs d’onde lumineuses traversaient l’atmosphère de chaque exoplanète, lors de leurs passages devant leurs étoiles.

Les traitements ont été effectués sur le superordinateur Wilkes3 de l’université de Cambridge, qui est composé de 80 noeuds basés sur des serveurs Dell PowerEdge XE8545. Chaque serveur inclut deux CPU 64 cœurs AMD EPYC 7763, 1 To de RAM et quatre GPU Nvidia A100 SXM, associés à une carte réseau Mellanox Infiniband HDR200. Chaque GPU dispose de 6912 cœurs, 432 cœurs tensor, 80 Go de VRAM HMB2e et un bus mémoire de 5120 bits pour une bande passante de 2039 Go/s. La technologie RoCE Infiniband permet d'interconnecter les serveurs et leurs 320 GPU. Le HPC a atteint la centième place au Top500 en juin 2021, le célèbre classement des superordinateurs.

Les GPU ont permis une accélération drastique du traitement. « Je m’attendais à ce que les A100 soient deux fois plus performants que les V100 et les P100 que j’utilisais auparavant », confie Ahmed Al-Refaie, « mais honnêtement, la différence a été beaucoup, beaucoup plus importante ». De fait, les modèles rendaient leurs verdicts en quelques secondes, là où un CPU aurait pris des semaines.

L’accélération a été aussi importante du fait que dans ce cas précis les traitements sont massivement parallèles, précise néanmoins NVIDIA.

Le James Webb Space Telescope ouvre de nouveaux espaces de données

Ce projet n’est qu’un début. Près de trente ans après Hubble, son successeur – le James Webb Space Telescope – a été lancé cette année et entrera en service en juin.

Une de ses huit missions sera d’observer les exoplanètes (la seconde mission la plus importante en termes de temps d’utilisation du télescope spatial, derrière l’observation des galaxies et du milieu intergalactique).

L’équipe de Quentin Changeat et de Ahmed Al-Refaie se prépare déjà. Elle est en train de mettre au point des moyens de travailler avec des résolutions plus élevées et des données plus poussées. Par exemple, au lieu d’utiliser des modèles unidimensionnels, elle utilisera des modèles bidimensionnels ou tridimensionnels qui prendront en charge un plus grand nombre de paramètres – comme les évolutions dans le temps.

« Si une planète connaît une tempête, par exemple, nous ne pouvons peut-être pas la voir avec les données actuelles, mais avec ces prochaines données, nous pensons pouvoir le faire », se réjouit déjà Quentin Changeat, avec des étoiles plein les yeux.

Avec nos collègues de ComputerWeekly (du groupe de presse TechTarget, dont fait partie LeMagIT)

Pour approfondir sur HPC

Close