Processeurs : ARM a conçu ses prochains Neoverse pour l’IA et le cloud

Les fabricants de processeurs viennent d’obtenir les plans pour lancer la production de puces ARM Neoverse V2 et N2. Il reste à travailler avec les éditeurs et les hébergeurs pour optimiser les logiciels.

ARM vient de livrer sa feuille de route concernant ses designs Neoverse de seconde génération, qui doivent intégrer les prochains processeurs pour serveurs. Les puces concernées sont les versions futures des Altra d’Ampere, Graviton d’AWS, Rhea de SiPearl et sans doute du Grace de Nvidia. Les plans du design Neoverse V2 ont déjà été communiqués aux fabricants et ceux du Neoverse N2 le seront dans le courant de l’année 2023.

Les ARM V2 sont conçus pour maximiser la puissance de calcul par cœur et les ARM N2 pour maximiser le nombre de cœurs individuellement économes en énergie. Comparativement aux cœurs N1 que l’on trouve dans les processeurs ARM des serveurs actuels, les N2 et V2 supporteront les bus PCIe 5.0 et mémoires DDR5, qui offrent deux fois plus de bande passante que les actuels PCIe 4.0 et DDR4. Mais c’est loin d’être leur seul intérêt.

« Ces puces pensées pour le supercalcul auront des unités de traitement plus complexes que jamais. Mais, surtout, étant donné que les algorithmes d’IA et de Machine Learning prennent le pas sur toutes les autres attentes des fabricants de processeurs pour serveurs, alors nos circuits ne ressembleront en rien à tout ce que vous avez connu jusque-là », a déclaré, lors d’un point presse, Chris Bergey, le patron de l’infrastructure chez ARM.

Des processeurs conçus pour l’IA et les applications « cloud-native »

En substance, les prochaines puces ARM Neoverse implémenteront dans leurs circuits – et dans l’interconnexion CMN-700 de leurs circuits – tout le nécessaire pour exécuter le plus rapidement possible des moteurs de Machine learning comme TensorFlow.  

Par ailleurs, Chris Bergey annonce qu’ARM va passer la majeure partie de l’année 2023 avec les hébergeurs de cloud et les éditeurs de logiciels pour optimiser leurs couches fonctionnelles en fonction des nouveaux designs. Il s’agirait notamment de mieux écrire les systèmes liés à l’infrastructure des containers, en particulier l’orchestrateur Kubernetes et le réseau Istio. Et pour cause : ils constituent la base des applications dites « cloud native » et c’est dans le domaine du cloud que devrait se vendre la majorité des serveurs ARM.

« À l’heure actuelle, les fournisseurs de cloud, mais aussi de calcul, s’orientent de plus en plus vers des machines où toute la puissance repose sur des GPU. »
Chris BergeySenior V-P & General Manager, Infrastructure Line Business, ARM

« À l’heure actuelle, les fournisseurs de cloud, mais aussi de calcul, s’orientent de plus en plus vers des machines où toute la puissance repose sur des GPU. Et ils veulent que ceux-ci soient pilotés par des processeurs au meilleur rapport vitesse/économie d’énergie. C’est pourquoi ces designs ne comprennent quasiment plus que des processeurs ARM. Nous avons donc travaillé avec les gens de Red Hat, sur OpenShift, de VMware, sur Tanzu, mais aussi avec ceux de SAP, sur Hana, pour que leurs logiciels soient en adéquation avec de tels serveurs », assure Chris Bergey.

Des versions V3 et N3 devraient également être dévoilées courant 2023, pour une implémentation au minimum en 2024. En 2023, ARM devrait aussi annoncer un nouveau design E3 qui consiste à maximiser le débit de données. Ce design devrait succéder aux cœurs Cortex-A510, eux-mêmes successeurs des Cortex-A55 que l’on trouve dans les appareils mobiles.

Selon ARM, il ne s’agit pas de construire des serveurs avec une version ou l’autre de processeurs Neoverse, mais bien de combiner les trois dans chaque serveur. Chaque type de cœur prendrait à sa charge un type spécifique d’algorithme. Cela tombe bien pour le Machine Learning qui a à la fois besoin de calcul intensif, de parallélisation et de haut débit selon les niveaux de données. Et cela tomberait bien aussi pour les applications « cloud-native » qui se segmentent en microservices de différents types.

Les processeurs ARM sont-ils assez performants ?

Selon les analystes, le succès des architectures ARM chez les hébergeurs de cloud n’est plus à discuter. En revanche, ce qu’il manquerait aujourd’hui à ces serveurs, ce serait de la performance.

« AWS, Azure ou encore GCP ont été séduits par l’opportunité qu’offrent les processeurs ARM de construire des infrastructures à moindre coût et à faible consommation d’énergie. Les entreprises peuvent aller dès maintenant chez eux et exécuter leurs applications sur des VMs ARM moins chères que les VMs x86. Le problème, c’est que cela ne sert vraiment que pour pousser des pages web. Les applications les plus lourdes restent sur des VMs Intel ou AMD », observe Jack Gold, analyste au bureau de conseil J. Gold Associates.

Rattraper ce retard de performance, sans sacrifier l’économie d’énergie, est justement l’enjeu de la nouvelle architecture Neoverse V2. Un point important du nouveau design est l’utilisation de mémoires LPDDR5X, celles des ordinateurs portables, potentiellement sur la même puce que les cœurs de processeur. Cette mémoire permettrait à elle seule de bénéficier de deux fois plus de bande passante par Watt que les mémoires DDR5 attendues sur les prochaines générations de serveurs Intel et AMD.

Les processeurs ARM posent-ils un problème de compatibilité ?

Autre défi à relever : la compatibilité. Les applications compilées par leurs développeurs pour des serveurs traditionnels ne sont tout simplement pas utilisables sur des serveurs ARM. Leurs développeurs doivent les recompiler et, surtout, tester comment elles se comportent quand elles sont exécutées par un jeu d’instruction qui n’a plus rien à voir. Sans cela, les serveurs ARM ne serviront toujours qu’à exécuter les scripts Python, Perl et consorts des sites web.

« Il ne suffit pas d’appuyer sur un bouton pour que votre code produise un binaire ARM plutôt que x86. Le changement de jeu d’instruction change la manière de réagir de votre application. Et il s’agit en fin de compte d’un portage qui n’est pas si facile à faire », dit Jack Gold.

« On parle ici d’infrastructures spécifiques au cloud pour les hyperscalers et les services qu’ils développent, notamment en SaaS. »
Dan NewmanAnalyste, cabinet d’études Futurum Research

Selon l’analyste Dan Newman, du cabinet d’études Futurum Research, la direction des développements vers un format cloud-native (comprendre des applications morcelées en containers) devrait néanmoins alléger les efforts de développements. D’autant qu’il s’agit plus de créer des applications nouvelles que de porter celles qui existent déjà.

« On parle ici d’infrastructures spécifiques au cloud pour les hyperscalers et les services qu’ils développent, notamment en SaaS. Il ne s’agit en aucun cas de remplacer les serveurs qui fonctionnent dans les datacenters des entreprises », fait-il remarquer.  

Cela dit, il note qu’Apple a parfaitement maîtrisé la transition de ses applications en remplaçant les processeurs x86 de ses Mac par ses propres puces M1, à base d’architecture ARM.

« Apple avait soulevé des inquiétudes quant à la compatibilité de sa puce. Mais grâce à des efforts continus d’optimisation, il a réussi à faire en sorte que davantage d’applications fonctionnent avec elle. Est-ce que les efforts de collaboration avec les éditeurs évoqués par ARM seront aussi fructueux ? Il est probable qu’ils ne donnent pas des résultats aussi rapides. Car ARM n’a pas autant de contrôle sur les éditeurs du marché qu’Apple en a sur la manière de concevoir des applications pour son système », estime Dan Newman.

Pour approfondir sur Processeurs et composants

Close