Nouveaux Xeon : Intel réduit l’écart avec AMD

Les nouveaux processeurs d’Intel vont permettre de fabriquer des serveurs d’entrée de gamme moins chers que ceux d’AMD. En haut de gamme, il faudra utiliser leurs dispositifs propriétaires pour rivaliser avec des Epyc mieux-disants.

Trois semaines après AMD, Intel vient enfin de dévoiler la nouvelle génération de ses processeurs pour serveurs, les Xeon Ice Lake. Leur principale caractéristique est qu’ils sont les premiers processeurs Intel de cette gamme à être gravés avec une finesse de 10 nm. Par rapport à la finesse de 14 nm sur la précédente génération (Cascade Lake), cette amélioration de la gravure a servi à implémenter une nouvelle architecture Sunny Cove plus dense qui, en moyenne, offre 46 % de performances en plus.

Suite de l'article ci-dessous

Surtout, les nouveaux Xeon Ice Lake réduisent sérieusement l’écart de performances et de prix entre Intel et AMD. Alors que les AMD Epyc permettaient jusque-là de proposer des serveurs 30 % moins chers que ceux d’Intel à caractéristiques équivalentes, il semble que ce sera en Intel Xeon que les prochains serveurs d’appoint seront les moins chers.

Intel a régné en maître absolu sur les serveurs pendant des décennies, mais l’arrivée des AMD Epyc ces dernières années a effrité ses parts de marché. Fin 2020, les Xeon d’Intel n’équipaient plus que neuf serveurs sur dix, tandis que le nombre de serveurs AMD Epyc promettait d’augmenter de 4,5 % tous les ans. En cause, AMD fait désormais fabriquer ses processeurs au meilleur prix dans les usines du Taiwanais TSMC, lequel a pris une longueur technologique d’avance en produisant en très grande quantité les puces des appareils mobiles.

Intel, qui n’utilise que ses propres usines, a été distancié par TSMC, mais jurait depuis des mois qu’il parviendrait à obtenir des processeurs aussi modernes, malgré une finesse de gravure moins importante, grâce à son savoir-faire en design. Ces nouveaux Xeon Ice Lake sont censés en apporter aujourd’hui la preuve.

40 cœurs

La nouvelle finesse de gravure en 10 nm permet de disposer plus de cœurs dans le processeur sans pour autant faire grimper d’autant sa consommation électrique. Le modèle haut de gamme Platinum 8380 a désormais 40 cœurs, alors que son prédécesseur, le 8280, plafonnait à 28. La quantité de cœurs conditionne en particulier le nombre de machines virtuelles qu’un serveur est capable d’exécuter simultanément. En revanche, les caches L3 individuels augmentent peu : ils passent de 1,375 Mo à 1,5 Mo par cœur.

En face, les Epyc d’AMD bénéficient depuis deux générations d’une finesse de gravure en 7 nm qui leur permet de grimper jusqu’à 64 cœurs, avec des caches L3 partagés de 32 Mo par groupe de 8 cœurs (soit en moyenne 4 Mo de cache par cœur). Leur dernière évolution – la génération Milan – améliore en moyenne de 19 % les performances de la précédente (génération Rome).

À partir de chaque version haut de gamme, toute une série de modèles subalternes se décline au gré d’un nombre de cœurs inactifs (qui désactivent aussi la partie du cache L3 liée à leurs circuits). Intel et AMD argumentent que désactiver des cœurs leur permet de proposer des fréquences plus élevées sans augmenter l’enveloppe énergétique, voire juste de proposer des processeurs qui consomment moins d’énergie. La réalité est sans doute que des cœurs sont inactifs à cause de problèmes de gravure, mais l’intérêt est que ces versions coûtent bien moins cher et permettront d’acheter des serveurs avec un meilleur rapport performances/prix.  

Moins de cache, mais moins de latence pour accéder aux données

Outre partir d’un nombre de cœurs moins élevé, les Xeon Ice Lake souffrent sur le papier d’un cache L3 par cœur 2,7 fois plus étroit que celui des Epyc Milan. L’intérêt du cache est qu’il s’agit d’une mémoire bien plus rapide que la RAM principale ; plus le cache est important, plus il contiendra de données et moins le processeur perdra du temps à aller interroger la RAM.

Intel rétorque que son design plus optimisé lui permet de se passer de ce supplément de cache. Le fournisseur publie des mesures : selon lui, la lecture en cache prend toujours 21,7 nanosecondes dans son nouveau Xeon, alors qu’elle prend entre 13,4 et 112 ns sur le dernier Epyc de son concurrent, selon que le cœur doit aller chercher des données à un endroit plus ou moins partagé avec d’autres cœurs. De même un cœur Xeon Ice lake pourrait atteindre un cache situé dans un autre Xeon Ice Lake en seulement 118 ns, alors que l’opération prendrait 209 ns entre deux Epyc Milan.

Intel a fait les mêmes mesures pour l’accès en RAM. Il y aurait 85 nanosecondes de latence entre un Xeon Ice Lake et ses barrettes DIMM, contre 96 ns pour l’Epyc Milan. Et 139 ns quand un Xeon Ice Lake accède à la DRAM d’un autre Xeon sur la même carte mère, contre 191 ns du côté Epyc Milan. En clair, selon Intel, qu’importe que ses cœurs n’aient que 1,5 Mo de cache L3 puisqu’ils accèdent dans certains cas plus vite à leur RAM que les cœurs d’un Epyc n’accèdent à certaines parties de leur cache.

La raison de ces mesures tiendrait dans le design très différent entre les deux processeurs. Un Epyc Milan est constitué de huit blocs de huit cœurs chacun qui communiquent via leurs huit caches partagés, tandis qu’un Xeon Ice Lake est constitué de 40 cœurs qui communiquent chacun avec les autres directement via une matrice de connexions.

Il faudra attendre la publication de benchmarks réalisés par des organismes indépendants pour comparer sereinement les performances des derniers Xeon Ice Lake et AMD Epyc, chaque constructeur jouant la surenchère délirante dans les annonces. Selon eux, et « selon les algorithmes », les derniers Epyc seraient en moyenne deux fois plus performants que les précédents Xeon, tandis que les derniers Xeon seraient 1,5 fois plus performants que les derniers Epyc.

Une myriade d’accélérations… propriétaires

Les autres caractéristiques principales des nouveaux Intel Xeon comprennent le support de 8 canaux mémoire DDR4-3200 (soit jusqu’à 4 To, ou 6 To en utilisant des barrettes mémoire Optane PMM) par socket, contre 6 canaux DDR4-2933 précédemment, ainsi que 64 liens PCIe 4.0 par socket, contre 48 liens PCIe 3.0 deux fois moins rapides avant.

Les derniers AMD Epyc ont les mêmes canaux mémoire, mais étant incompatibles avec les barrettes Optane PMM, ils ne peuvent adresser que 4 To de RAM par socket. Le nombre de leurs liens PCIe 4.0 est en revanche de 128. Ces liens peuvent être regroupés par 4 ou par 16 pour accélérer le débit des extensions dans un serveur : carte GPU, contrôleur réseau/stockage, SSD NVMe. Le nombre plus important de liens PCIe 4.0 devrait permettre aux serveurs équipés d’AMD Epyc d’aligner plus d’extensions. En pratique, il s’agira surtout de plus de SSD NVMe dans une infrastructure hyperconvergée ou dans une baie de disques.

L’architecture Sunny Cove repousse par ailleurs quantité d’accélérations en matière de chiffrement : SGX, Total Memory Encryption, Intel Platform Firmware Resilience, mais aussi Vector AES, VPMADD52, VBMI… Par exemple, les nouveaux Xeon encoderaient les données avec l’algorithme RSA 5,63 fois plus vite qu’auparavant. Ces avancées sont censées encourager les entreprises et les opérateurs de cloud à activer les meilleures mesures de protection, sans craindre qu’elles ne ralentissent leurs traitements.

Ces dispositifs propres à Intel accélèrent significativement l’exécution de certains algorithmes dès lors qu’ils sont compilés avec les outils de développement proposés par Intel. Historiquement, une application de calcul compilée avec l’Intel Math Kernel Library est par exemple plus rapide de 15 % sur un même processeur que sa version compilée avec les outils génériques de GCC. Cela signifie que des conditions peuvent être réunies pour qu’un Xeon atteigne les mêmes performances, voire surpasse, un Epyc aux caractéristiques supérieures.

En revanche, utiliser ces dispositifs rend l’application incompatible avec tous les autres processeurs, que ce soit ceux d’AMD, comme les Xeon de génération précédente. Le risque est que l’application ne soit dès lors plus exportable en cloud.

Massivement multicœur : l’avantage du prix semble rester à AMD

LeMagIT a renoncé à dénombrer les dizaines et dizaines de modèles de Xeon Ice Lake présentés par Intel. D’autant qu’ils ne sont pas tous destinés aux serveurs classiques : ceux dont le nom se termine par N équiperont des routeurs réseau, ceux avec un M plutôt des serveurs de diffusion dans les médias, ceux avec un T des équipements durcis dans l’industrie, ceux avec un P ou un V sont réservés aux fournisseurs de cloud… Voici néanmoins ci-dessous les modèles les plus emblématiques pour des serveurs traditionnels.

Dans la catégorie des processeurs pour serveurs à un ou deux sockets, le Xeon 8380 est le haut de gamme en termes de nombre de cœurs, puisqu’il en possède 40 qui fonctionnent à 2,3 GHz. Dans une enveloppe thermique de 270 watts, ses cœurs supportent à tour de rôle des pointes à 3,4 GHz, ou tous ensemble à 3 GHz. Présenté au tarif de 8 099 $, ce processeur est moins cher que le haut de gamme qui le précédait et rivalise donc mieux avec le nouveau haut de gamme AMD Epyc 7763 à 64 cœurs (de 2,45 à 3,4 GHz). Comparativement, ce dernier souffre d’une enveloppe thermique un peu supérieure, 280 watts, mais bénéficie d’un tarif un peu inférieur, 7 890 $.

Pour une comparaison plus juste selon un nombre de cœurs à peu près équivalent (et donc à peu près la même quantité de machines virtuelles exécutables simultanément), on confrontera plutôt le Xeon 8380 à l’AMD Epyc 7643. Celui-ci possède 48 cœurs, également à 2,3 GHz, avec des pointes individuelles à 3,6 GHz (uniquement individuelles : les Epyc ne permettent pas d’accélérer les fréquences de tous les cœurs à la fois). Son enveloppe énergétique est de 240 watts, c’est un peu mieux. Son tarif, en revanche, est significativement différent : 4 995 $.

Pour deux fois moins cher que son haut de gamme, soit 3 950 $, Intel propose le Xeon 8358 avec 32 cœurs à 2,6 GHz. Ils sont toujours capables de faire des pointes individuelles à 3,4 GHz, mais cette fois-ci avec la capacité de grimper ensemble jusqu’à 3,3 GHz, le tout dans une enveloppe de 250 watts. Chez AMD, l’Epyc 7513 équivalent (32 cœurs, de 2,6 à 3,65 GHz, 200 watts) est présenté au tarif de 2 840 $.

Le reste de la liste est à l’avenant : à caractéristiques égales, la finesse de gravure de 7 nm chez AMD permet d’atteindre des enveloppes thermiques et des tarifs plus bas que la gravure en 10 nm chez Intel. La différence est cependant de moins en moins sensible au fur et à mesure que l’on descend en gamme. Par exemple, le Xeon 6326 à 16 cœurs (de 2,9 à 3,5 GHz) a une enveloppe énergétique de 185 watts et un tarif de 1 300 $, tandis que l’Epyc 7313 à 16 cœurs (de 3 à 3,7 GHz) a une enveloppe énergétique de 180 watts et un tarif de 1 083 $.

Puissance brute par cœur : des tarifs Intel plus intéressants sur l’entrée de gamme

Outre les performances au regard de la quantité de machines virtuelles exécutables en même temps, Intel et AMD proposent des processeurs conçus pour la vitesse d’exécution pure par cœur, laquelle est recherchée dans les algorithmes de calcul en général et les applications d’intelligence artificielle en particulier. Cette catégorie correspond aux processeurs notés F chez AMD.

Ici, le haut de gamme chez Intel est double. Il y a d’une part le Xeon 8362 à 32 cœurs en 2,8 GHz. Ces cœurs grimpent individuellement à 3,6 GHz, ou ensemble à 3,5 GHz, tout en restant dans une enveloppe globale de 265 watts. Le tarif de ce processeur est de 5 448 $. On trouve également le Xeon 8368Q, expressément conçu pour être refroidi à l’eau. Lui dispose de 38 cœurs à 2,6 GHz qui savent individuellement grimper à 3,7 GHz, ou ensemble à 3,3 GHz, pour une enveloppe thermique globale de 270 watts. Son tarif est de 6 743 $.

Ces processeurs se comparent au haut de gamme Epyc 75F3 qui a 32 cœurs, à la fréquence supérieure de 2,95 GHz, avec des pointes individuelles à 4 GHz, moyennant une enveloppe de 280 watts, plus élevée, et un tarif de 4 860 $, inférieur.

C’est dans l’entrée de gamme qu’Intel parvient enfin à proposer des enveloppes énergétiques et des tarifs sensiblement inférieurs à son concurrent. Concernant les processeurs très rapides, il propose le Xeon 6334 avec 8 cœurs à 3,6 GHz (3,7 GHz individuellement, mais toujours 3,6 GHz ensemble) pour une enveloppe énergétique de 165 watts et un tarif de 2 214 $. En face, l’AMD Epyc 72F3 a également 8 cœurs qui fonctionnent à 3,7 GHz (individuellement 4,1 GHz), mais atteignent une enveloppe énergétique de 200 watts, supérieure, et un tarif plus élevé de 2 468 $.

Petits serveurs : l’avantage va plutôt à Intel

Chez les deux fournisseurs, les processeurs pour serveurs bisockets sont utilisables dans des monosockets, dont le format généralement de 1U permet d’économiser de la place et de l’énergie dans un datacenter. Il se trouve cependant que certains modèles de processeurs souffrent d’un défaut qui les cantonne aux versions monosockets, au bénéfice néanmoins d’un prix nettement plus intéressant. Ces modèles sont reconnaissables à la lettre U chez Intel et P chez AMD. La capacité de chacun à proposer un tel modèle par type de configuration permettra de trancher, plus que dans les autres catégories, entre les deux fournisseurs.

En haut de gamme, avec 64 cœurs, AMD impose ainsi un Epyc 7713P (2 à 3,675 GHz, 240 watts) à 5 010 $ sans équivalent chez Intel. En Xeon, il faudra nécessairement passer par un serveur bisocket, plus cher, plus encombrant.

En revanche, en version 32 cœurs, Intel dispose d’un tel processeur bridé, le 6314 U (de 2,3 à 3,4 GHz, 205 watts) à 2 600 $, alors qu’AMD n’a à proposer que son modèle bisocket Epyc 7513 (2,6 à 3,65 GHz, 200 watts) à 2 840 $.

En 24 cœurs, le match est plus subtil. AMD a un Epyc 7443P qui fonctionne de 2,85 à 4 GHz et consomme 200 watts pour 1 337 $. Intel a un Xeon 6312U au tarif similaire (1 450 $), qui ne fonctionne que de 2,4 à 3,6 GHz, mais pour une enveloppe énergétique de 185 watts, plus basse.

En 16 cœurs, comparons l’Epyc 7313P, de 3 à 3,7 GHz et 180 watts, tarifé à 913 $, au Xeon 6326, de 2,9 à 3,5 GHz, 185 watts, présenté à 1 300 $. Toutefois, Intel est le seul à proposer un modèle plus économique dans cette gamme, le Xeon 4314 qui fonctionne de 2,4 à 3,4 GHz, ne consomme que 135 watts et coûte à peine 694 $.

Hormis son véloce Epyc 72F3 évoqué plus haut au tarif de 2 468 $, AMD ne propose pas de processeur en dessous de 16 cœurs. Intel en a quatre, qui vont du Xeon 5317 à 950 $ (12 cœurs, de 3 à 3,6 GHz, 150 watts) au Xeon 4309Y à 501 $ (8 cœurs, de 2,8 à 3,6 GHz, 105 watts).  

Pour approfondir sur x86

Close