Re:Invent 2025 : les VM d’AWS à base de Graviton5 seront 25% plus rapides

La nouvelle version du processeur maison de l’hyperscaler sera la première à implémenter les derniers cœurs Neoverse V3 d’ARM. Le gain de performances serait d’au moins 25% sur les applications web.

Il aura finalement fallu attendre le tout dernier jour de l’événement re:Invent 2025, que l’hyperscaler AWS a organisé la semaine dernière à Las Vegas, pour apprendre que le processeur ARM maison, le Graviton, allait bien avoir une suite.

A priori disponible courant 2026 dans des VM baptisées M9g, le Graviton5 devrait être 25% plus performant que le Graviton4. Il aura 192 cœurs, contre 96 précédemment, et un « cache L3 cinq fois plus large ». Sauf que le Graviton4 n’avait pas de cache L3 (partagé entre tous les cœurs), juste 2 Mo de cache L2 par cœur, qui totalisaient 192 Mo.

Selon les quelques bribes d’informations qu’a pu obtenir LeMagIT, il est vraisemblable que le Graviton5 équivaut à deux circuits de Graviton4, gravés plus finement avec une précision de 3 nm (au lieu de 5 nm) pour tenir dans la même puce. Si cette puce devait contenir 960 Mo de mémoire cache (192 x 5), il pourrait s’agir de 192 cœurs cumulant 576 Mo de cache interne, à raison de 3 Mo par cœur (ce que supportent les nouveaux cœurs Neoverse V3), plus un supposé circuit commun de 384 Mo.

Il est tout aussi probable que ce circuit n’existe pas et qu’AWS fasse plutôt référence à la capacité des cœurs d’accéder au cache de cœurs se trouvant dans un second processeur du même serveur. S’agissant désormais de cœurs ARM Neoverse V3 – des V2 sur la version précédente – il est notable que les caches L2 deviennent partageables entre cœurs et s’apparentent donc à du cache L3.

On retiendra qu’AWS commercialisait déjà des VM M8g à base de Graviton4 avec 192 cœurs. Il s’agissait en l’occurrence du nombre total de cœurs répartis sur deux processeurs dans un serveur. Le fait que ces cœurs résident désormais dans la même puce et se partagent un nouveau cache L3 réduirait la latence de leurs interactions de 33%. AWS indique que les bases de données en mémoire seraient jusqu’à 30% plus rapides et que les applications en containers, plus fragmentées pour optimiser l’usage des cœurs, seraient jusqu’à 35% plus rapides.

Selon AWS, plus de la moitié des applications en production sur son cloud public fonctionneraient à présent sur des processeurs Graviton. Selon plusieurs experts, les Graviton – et les processeurs ARM en général – auraient un meilleur rapport performance/prix sur les applications découpées en microservices et les applicatifs web.

Les x86, qui consomment beaucoup plus d’énergie, mais ont cette capacité à mieux répartir les flux d’instructions sur les circuits disponibles, resteraient plus efficaces sur les tâches lourdes. notamment celles qui lisent et écrivent beaucoup de données. Accessoirement, les x86 représentent le choix par défaut pour les applications historiques qui sont migrées en cloud sans être transformées.

Pour la première fois, des cœurs ARM Neoverse V3

L’intérêt principal des cœurs ARM Neoverse V3 est qu’ils supportent d’emblée les futures mémoires DDR6 et les bus PCIe 6.0. L’intérêt second réside dans de nouveaux circuits d’accélération qui permettent cette fois-ci d’allumer en permanence le chiffrement de la mémoire et du stockage en mode bloc. Dit autrement, même si un logiciel malveillant parvenait, via un exploit, à accéder aux adresses et aux blocs de données d’un autre processus, il ne saurait pas les exploiter.

Enfin, les Neoverse V3 utilisent le jeu d’instruction Armv9-A (dit v9.2) qui permettrait à un code idéalement recompilé de gagner de 9 à 16% de performances sur un algorithme multicœur et même 84% sur un algorithme d’inférence exécuté par le processeur, plutôt que par un NPU ou un GPU.

Le Graviton5 est le premier à implémenter de tels cœurs. La plupart des autres processeurs ARM pour serveurs reposent encore tous sur des Neoverse V2. Ce sont les Axion que Google fait fabriquer pour son cloud GCP, AmpereOne MX (256 cœurs) qu’Ampere fabrique notamment pour le cloud OCI d’Oracle, Grace (72 cœurs) que Nvidia met dans ses modules de calcul avec deux GPU (GH200, GB200 et GB300), et aussi le Rhea (avec 64 Go de mémoire HBM) que le français SiPearl fabrique pour équiper les supercalculateurs européens.

Les seuls processeurs ARM pour serveurs qui divergent de cette architecture sont le Cobalt-100 et le Yitian 710 que Microsoft Azure et Alibaba, respectivement, font fabriquer pour leurs clouds publics. Ceux-ci reposent sur des cœurs Neoverse N2 qui sont individuellement moins performants que les Neoverse V2, mais consomment aussi beaucoup moins d’énergie. Cela dit, ARM a aussi mis au point un design Neoverse N3 qui pourrait apporter jusqu’à 40% de performances par rapport à des cœurs N2.

Les Neoverse V3 offrant plus de bande passante, AWS devrait les relier dans ses serveurs à sa nouvelle génération de cartes réseau Nitro6 dont la bande passante est de 100 Gbit/s, soit le double par rapport à la génération précédente.

Pour approfondir sur Processeurs et composants