Intel dévoile ses processeurs hybrides

En perte de vitesse face à AMD et les processeurs ARM, Intel, désormais pris en main par Pat Gelsinger, tâche de renverser la vapeur avec des processeurs à la fois plus efficaces en performances et en consommation.

Organisant fin octobre son nouvel événement Intel Innovation, Intel a dévoilé sa première architecture de processeurs hybrides, qui mélange des cœurs performants (P-Core) avec des cœurs économiques en énergie (E-Core). Appelée Alder Lake dans sa version pour les processeurs Core destinés aux PC, cette architecture doit se décliner l’année prochaine en une version Sapphire Rapids pour les processeurs Xeon qui équipent les serveurs. Alder Lake sonne aussi l’arrivée des mémoires DDR5 et des slots PCIe 5, une fois et demie à deux fois plus rapides que leurs prédécesseurs.

En pratique, les cœurs économiques occupent une surface quatre fois plus petite que celle des cœurs performants et, grosso modo, consomment quatre fois moins d’énergie. Le but d’Intel est de proposer des processeurs qui – bien que toujours gravés avec une finesse de 10 nm – soient globalement 19 % plus performants que les modèles actuels tout en consommant 10 à 15 % d’énergie en moins.

Dans le détail, les applications intensives qui n’utilisent que des P-Cores fonctionneraient 50 % plus vite sur un processeur qui consomme les mêmes 250 watts que son prédécesseur. Tandis que les applications simples, qui peuvent se contenter d’E-Cores, fonctionneraient à la même vitesse, mais sur un processeur qui ne consomme plus que 65 watts.

P-Core pour aller vite, E-Core pour économiser les watts

Un cœur performant P-Core (alias « Golden Glove ») multiplie les circuits pour décoder le plus d’instructions possible par cycle et mieux prédire quelles données il doit déjà mettre dans son cache, pour que les applications y accèdent très rapidement, sans perdre de temps avec des aller-retour vers la RAM. À cette fin, le cache d’un P-Core gagne en taille : il fera 1,25 Mo sur les cœurs des processeurs Core Alder Lake et 2 Mo sur ceux des processeurs Xeon Sapphire Rapids.

Les cœurs économiques E-Core (alias « Gracemont ») ont un circuit bien plus sobre, au point d’ailleurs qu’ils ne savent exécuter qu’un thread à la fois, contre deux sur les P-Cores. Les E-Cores sont réunis par grappe de quatre autour d’un cache commun. Ce cache sera de 2 Mo par grappe sur les processeurs Core Alder Lake des PC et de 4 Mo par grappe sur les processeurs Xeon Sapphire Rapids.

Les scénarios d’usage sont multiples. Une base de données temps réel, un algorithme de supercalcul, une simulation solliciteront plutôt les cœurs performants, tandis que les portails web et les outils bureautiques se contenteront amplement des cœurs économiques. Ou pas.

Dans un monde où les applications sont de plus en plus fragmentées en containers pour mieux s’exporter dans le cloud, il est probable que les développeurs cherchent plutôt à utiliser des grappes entières de cœurs économiques pour maximiser la quantité de threads exécutés en parallèle, y compris quand il s’agit d’applications critiques. Par exemple, un algorithme d’analyse gagnera à fonctionner sur quatre containers parallèles qui traitent le même jeu de données stocké dans le cache commun.

Une multitude de processeurs avec plus ou moins de cœurs d’un type ou de l’autre

L’un des défis que pose la nouvelle architecture est que l’OS hôte sache à quel cœur affecter quelle application. D’autant qu’Intel a manifestement l’intention de multiplier les versions de ses processeurs : certains auront plus d’E-Cores, d’autres plus de P-Cores. Pour résoudre ce problème, Intel a mis au point un système de prédiction appelé Intel Thread Director. Windows est censé le supporter dans ses nouvelles versions. Linux bénéficiera sans doute d’un pilote directement fourni par Intel. Mais on ignore encore dans quelle mesure l’efficacité d’un tel dispositif reposera sur les pratiques des développeurs.

S’il est trop tôt pour connaître le détail des processeurs Xeon Sapphire Rapids dévoilés en 2022, Intel a déjà mentionné les caractéristiques de ses nouveaux processeurs pour PC.

Les Core i9 12900 auront 8 P-Cores, 8 E-Cores, 30 Mo de cache L3 commun en plus d’un total de 14 Mo de caches L2 individuels. La fréquence des P-Core sera de 3,2 GHz, avec une accélération jusqu’à 5,1 GHz. Celle des E-Core sera de 2,4 GHz avec une accélération jusqu’à 3,9 GHz. La consommation sera comprise entre 125 et 241 watts.

Les Core i7 12700 auront 8 P-Cores, 4 E-Cores, 25 Mo de cache L3 commun en plus d’un total de 12 Mo de caches L2 individuels. La fréquence des P-Core sera de 3,6 GHz, avec une accélération jusqu’à 4,9 GHz. Celle des E-Core sera de 2,7 GHz avec une accélération jusqu’à 3,8 GHz. La consommation sera comprise entre 125 et 190 watts.

Les Core i5 12600, enfin, auront 6 P-Cores, 4 E-Cores, 20 Mo de cache L3 commun en plus d’un total de 9,5 Mo de caches L2 individuels. La fréquence des P-Core sera de 3,7 GHz, avec une accélération jusqu’à 4,9 GHz. Celle des E-Core sera de 2,8 GHz avec une accélération jusqu’à 3,6 GHz. La consommation sera comprise entre 125 et 150 watts.

Déjà du PCIe 5 et de la DDR 5

Concernant les autres apports de la prochaine génération de processeurs Intel, le support des bus PCIe 5 en amont d’AMD est plutôt synonyme d’un fort regain d’activité de la part du constructeur ; on se souvient en effet qu’Intel avait proposé les bus PCIe 4 avec une bonne année de retard sur son concurrent.

Les observateurs y voient l’un des bons effets du retour de Pat Gelsinger aux commandes. L’événement Intel Innovation, quoique virtuel, rappelait d’ailleurs à bien des égards les grandiloquents événements IDF que ce même Pat Gelsinger organisait jadis, avant qu’une direction peu inspirée ne le poussât vers la sortie.

Les prochains processeurs supporteront seize canaux PCIe 5 ; traditionnellement à raison de quatre canaux par carte GPU et de deux canaux par SSD. Chaque canal est censé transporter les données à la vitesse de 32 Gbit/s, contre 16 Gbit/s en PCIe 4. La mémoire DDR5 sera quant à elle 50 % plus rapide que la mémoire DDR4.

Les Xeon Sapphire Rapids seront a priori les seuls à intégrer un circuit Advanced Matrix Extensions (AMX) capable d’exécuter des calculs en matrices. Il serait particulièrement utile dans les algorithmes de Machine Learning.

Reprendre la main sur le marché face à TSMC

Les annonces de ces nouveaux processeurs hybrides se font dans un contexte très particulier. Intel compte sur eux pour rattraper son retard sur ses concurrents asiatiques, notamment le Taiwanais TSMC, qui produit à présent des puces ARM, AMD, Apple, Nvidia avec deux générations électroniques d’avance sur les actuels Core et Xeon.

Mais de simple course technologique, le problème a pris une ampleur géopolitique. Du fait des retards de livraison dus à la récente crise sanitaire et des menaces de conflit armé entre la Chine et les USA autour de Taiwan, les puces qui sortent des usines TSMC n’irriguent plus en assez grande quantité les équipements électroniques occidentaux. Au-delà des PC et serveurs, ce sont les smartphones et les voitures qui sont concernés.

Pat Gelsinger entend tirer profit de cette situation. Il s’efforce de persuader les États américains et européens d’investir plusieurs milliards dans Intel pour qu’il construise des usines de semi-conducteurs sur leurs territoires. Il offre même de louer ses chaînes de production à ses concurrents, une stratégie de sous-traitant qu’Intel s’était toujours refusé d’appliquer, mais qui a fait la fortune de TSMC et lui a permis de moderniser ses usines plus rapidement qu’Intel. Cette activité doit s’appeler Intel Foundry Services.

Convaincre de sa capacité à être performant malgré les avancées de la Chine

En coulisse, Intel joue gros. Le Chinois Alibaba, équivalent extrême-oriental d’Amazon en termes de mastodonte du commerce en ligne comme en termes de géant du cloud public, ne lui achètera plus de Xeon pour équiper ses serveurs. Alibaba a mis au point un processeur ARM de remplacement, le Yitian 710, qu’il fera fabriquer par TSMC, avec une finesse de gravure de 5 nanomètres, comme l’Apple M1 Pro/Max. En Occident, AWS avait déjà fait de même avec le Graviton, son processeur ARM. D’autres grands hébergeurs de cloud (Azure, Oracle…) passent aussi leurs serveurs au processeur ARM, souvent un Altra d’Ampere.

Intel ne vendra plus non plus de processeurs aux grands datacenters privés et supercalculateurs chinois, du fait d’une nouvelle réglementation décidée par Pékin. C’est contrariant : la vitrine de ses prochains Xeon Sapphire Rapids hybrides devait notamment être des nœuds de supercalcul bardés d’une nouvelle mémoire HBM et d’un nouveau GPU Intel appelé Xe (nom de code « Ponte Vecchio »).

Installés dans une future machine baptisée Aurora pour l’un des plus grands centres de recherche américains, les Xeon Sapphire Rapids devaient être les premiers processeurs à permettre de franchir la barrière symbolique de l’exaflops (un milliard de milliards d’opérations mathématiques par seconde). La Chine et le reste du monde auraient été incités à acheter de la technologie américaine Intel pour assurer leur puissance de calcul.

Sauf que la Chine aurait finalement déjà mis au point deux supercalculateurs, le Sunway Oceanlite et le Tianhe-3, qui dépasseraient chacun déjà l’exaflops. Le Sunway Oceanlite serait basé sur des processeurs RISC maison, les SW26010, manifestement fabriqués par TSMC. Ce processeur a une architecture originale : il est constitué de quatre grappes de 64 cœurs « CPE » et chaque grappe est contrôlée par un cœur MPE plus important que les autres. Le Tianhe-3 serait quant à lui basé sur des processeurs ARM appelés FeiTeng et mis au point par le Chinois Phytium. Le Feiting intégrerait, comme les futurs Xeon, un circuit d’accélération des calculs en matrice.

En réaction, Intel a promis lors de son événement Intel Innovation qu’Aurora aura une puissance de calcul de deux exaflops.

Freiner la perte de parts de marché face à AMD

Intel doit aussi faire face à la montée en puissance d’AMD dans les datacenters. Lors du dernier trimestre, le concurrent le plus direct d’Intel a franchi le plafond symbolique du milliard de dollars de CA trimestriel, pour sa gamme de processeurs destinés aux serveurs. Selon les estimations du site américain TheNextPlatform, Intel aurait vendu sur la même période pour environ 6,5 milliards de dollars de puces dédiées aux serveurs. Soit une répartition sur le marché des serveurs x86 à environ 86,5 % des parts pour Intel et 13,5 % pour AMD.

Avant le lancement d’Epyc en 2017, le concurrent du Xeon chez AMD, Intel détenait 97 % de parts de marché. En clair, si l’on tient compte du cycle de remplacement des machines dans les datacenters, soit cinq ans environ, Intel est bel et bien en train de perdre du terrain dans les intentions d’achat des entreprises.

Pour autant, le retour de Pat Gelsinger et la fin de la crise pandémique contribueraient à faire repartir la croissance. C’est ainsi le premier trimestre depuis 2020 où les ventes de processeurs Intel pour datacenter sont en hausse : +11 % en un an, alors qu’elles étaient de -9,8 %, -13,4 % et même -17,3 % sur les trimestres précédents. Celles des processeurs Epyc d’AMD n’ont cessé d’augmenter trimestre après trimestre depuis 2017, y compris durant la crise pandémique.

Pour approfondir sur Processeurs et composants

Close