Serveurs ARM : ils progressent de 125 % dans les datacenters

AWS serait le plus important utilisateur de serveurs ARM. Ses machines reposent désormais sur le Graviton 2, un processeur qui dispose de cœurs Neoverse N1 aussi performants que les x86.

AWS, ses rivaux du cloud et une multitude de startups travaillent en ce moment d’arrache-pied pour réduire le prix de certaines offres d’infrastructures en les déclinant sur une architecture ARM, voire avec d’autres microprocesseurs innovants. Ces développements n’ont pas encore beaucoup d’impact sur les parts de marché des serveurs x86, mais de nombreux experts s’accordent à dire qu’ils fissurent de plus en plus vite le monolithe Intel.

Selon IDC, fin 2019, Intel dominait toujours le marché mondial des microprocesseurs pour serveurs avec un dernier chiffre d’affaires trimestriel de 5,9 milliards de dollars, soit 93,6 % des 6,3 Md $ générés par les ventes de puces pour datacenters entre octobre et décembre. Les processeurs x86, qui englobent aussi les modèles Epyc d’AMD, représentaient à ce moment-là 98,9 % du marché des serveurs. Les processeurs ARM, eux, ne revendiquaient que 0,4 % des ventes. Mais le plus important est ailleurs : les ventes de serveurs ARM ont connu une croissance de 125 % par rapport au quatrième trimestre de 2018.

« Nous pensons qu’il y a de la place pour une alternative aux x86. Surtout si, comme pour l’ARM, il s’agit d’une architecture qui peut s’adapter à différentes applications, et qui peut évoluer du bas de gamme jusqu’aux superordinateurs », commente Shane Rau, analyste chez IDC.

L’enjeu de proposer des machines virtuelles plus économiques

Jusqu’il y a peu, l’architecture ARM était cantonnée aux équipements à faible consommation d’énergie, comme les smartphones. À présent dans les serveurs, les processeurs ARM peuvent fournir une puissance de calcul importante avec une consommation d’énergie inférieure à celle des x86. AWS parle de « performance EC2 au meilleur prix ». Ses offres basées sur ARM ont démarré dès 2018 avec le service IaaS de machines virtuelles A1.

« Les VMs A1 nous ont permis d’économiser 20 % par rapport au coût des VMs que nous utilisions précédemment. »
Emmanuel SantanaDirecteur technique, Reamp

« Les VMs A1 nous ont permis d’économiser 20 % par rapport au coût des VMs que nous utilisions précédemment », témoigne Emmanuel Santana, le directeur technique de Reamp, une société basée à São Paulo, au Brésil, qui recueille des informations analytiques à partir de données publicitaires. Les clients de l’entreprise sont de grandes sociétés des médias d’Amérique latine qui souhaitent optimiser leurs campagnes de marketing numérique. « Notre application ne nécessite pas beaucoup de mémoire, mais elle est très gourmande en calculs répétitifs. Surtout, nous devons maintenir les coûts à un niveau bas pour être rentables », précise-t-il.

Selon lui, nombre d’entreprises en sont venues à dépendre du cloud pour une large partie de leurs besoins informatiques, mais les plus petites sont défavorisées, car elles sont moins susceptibles que les grandes de bénéficier de remises sur le volume. Elles seraient donc très friandes de services IaaS qui coûteraient 10 à 40 % moins cher que d’ordinaire.

Autre client ravi de l’offre A1, l’entreprise SmugSmug, qui édite un service en ligne de stockage et de partage de photos et vidéos. « Nous avons migré une partie de notre service sur des instances A1 assez facilement. Cela nous a fait économiser 40 % sur le coût des VMs Intel que nous utilisions jusqu’alors », raconte Shane Meyers, l’ingénieur principal de SmugMug.

Neoverse, l’architecture ARM qui peut enfin rivaliser avec les x86 sur serveurs

Les instances A1 ont été lancées avec des processeurs Graviton, lesquels ont été conçus par AWS sur la base des premiers cœurs 64 bits ARM Cortex-A72. Le Graviton premier du nom comprenait 16 cœurs à 2,3 GHz, qui étaient surtout conçus pour exécuter chacun de leur côté une instance virtuelle – ou un thread indépendant.

Au début, AWS proposait avec les instances A1 des machines virtuelles ARM exécutées par l’hyperviseur Nitro, lequel est capable d’orchestrer des VMs à partir d’une multitude de processeurs différents. Alors qu’AWS n’utilisait à l’origine que des processeurs Intel, son hyperviseur Nitro lui avait déjà permis d’étendre son parc de machines avec des processeurs Epyc d’AMD. En octobre 2019, une nouvelle version de Nitro permettait également d’orchestrer des machines physiques (« bare metal »), où toute la puissance est dédiée à une application pour peu qu’elle soit massivement multithread (par exemple un serveur web capable de répondre à des requêtes en parallèle).

En décembre dernier, AWS a déployé le processeur Graviton2, cette fois-ci basé sur des cœurs Neoverse N1. Ces nouveaux cœurs ARM apportent la faculté de mieux travailler ensemble et de mieux prédire les instructions suivantes lors d’un branchement conditionnel, deux caractéristiques qui ont longtemps permis aux x86 d’exécuter beaucoup plus d’instructions, en un certain nombre de cycles d’horloge, que les ARM. Et qui, surtout, accélèrent l’exécution d’une application sur plusieurs cœurs, même si cette application n’est pas multithread.

Selon les informations obtenues par LeMagIT, le Graviton 2 intègre 64 cœurs à 2,5 GHz et 33 Mo de cache pour une consommation comprise entre 80 et 100 watts. Les trois nouvelles instances EC2 basées sur Graviton2 sont M6g pour les charges de travail générales, C6g pour les tâches de calcul intensif et R6g pour les applications qui traitent de grands ensembles de données en mémoire. D’ici à la fin de l’année, ARM devrait dévoiler la seconde génération de cœurs Neoverse. Celle-ci sera notamment implémentée dans le SiPearl Rhea, le futur processeur européen.

Les puces Graviton sont issues des travaux d’Annapurna Labs, une entreprise israélienne qu’AWS a acquise en 2015. Sur la base de ses recherches autour de l’ARM, AWS a aussi développé le processeur Inferentia qui sert d’accélérateur dans les algorithmes de Machine Learning, de sorte que ceux-ci puissent faire des prédictions pour améliorer leur logique de décision. AWS associe des accélérateurs Inferentia avec des processeurs Intel Xeon dans ses instances EC2 Inf1. L’inferentia est la réponse d’AWS à ses concurrents du cloud public qui ont eux aussi mis au point des puces pour accélérer l’Intelligence artificielle, mais qui se sont plutôt basés sur des ASICs : il s’agit du Tensor Processing Unit chez Google GCP et du Graphcore chez Microsoft Azure.

Une conquête des serveurs qui reste à écrire

Reste que, pour l’architecture ARM, la conquête du marché des processeurs pour serveurs est loin d’être gagnée. « On spécule constamment sur le fait que l’ARM va bouleverser le marché des x86 dans le centre de données. Cela fait dix ans maintenant que l’on en discute, mais rien n’a jamais abouti. Il y a eu un certain nombre de tentatives infructueuses, notamment par des fabricants de puces comme Marvell, Qualcomm et AMD », observe Alan Priestley, analyste chez Gartner.

AWS et SiPearl ne sont pas les seuls à tenter l’aventure ARM. Le géant chinois Huawei a aussi mis au point un microprocesseur basé sur des cœurs ARM et des technologies connexes. Des startups comme Ampere et Nuvia s’essaient également au design de processeurs maison à base de cœurs ARM.

Microsoft a lui aussi commercialisé sur Azure une offre IaaS de machines virtuelles ARM ; elles reposent dans ce cas sur des serveurs équipés de microprocesseurs ThunderX2 fabriqués par Marvell. Entre-temps, la startup Bamboo lance des serveurs dotés d’une multitude de Layerscape LX2160A, un processeur ARM fabriqué par NXP. Citons aussi la startup Pensando, qui planche sur un hyperviseur de machines virtuelles ARM, capable de concurrencer Nitro d’AWS.

« Au final, les hébergeurs et les grands datacenters iront vers la technologie qui leur permettra d’économiser le plus leurs investissements. »
Alan PriestleyAnalyste, Gartner

« Le Graviton est le seul processeur à être déployé en volume dans les centres de données. Mais il est restreint aux usages internes d’AWS », estime, pessimiste, Alan Priestley. Selon lui, le point important pour les hébergeurs de cloud est de pouvoir construire des serveurs avec des processeurs spécialement adaptés à certains usages. Or, 50 % des processeurs qu’Intel vend à ces hébergeurs seraient des versions non standard, personnalisées pour eux. « Au final, les hébergeurs et les grands datacenters iront vers la technologie qui leur permettra d’économiser le plus leurs investissements », ajoute l’analyste en suggérant que le coût de développement de tels processeurs n’est pas anodin.

 

Pour approfondir sur Architectures de Datacenters

Close