Rachat de Xilinx : AMD conforte son élan dans les datacenters

Cette acquisition devrait permettre à AMD de proposer aux hyperscalers des puces spécialisées en complément de ses processeurs Epyc, dont les ventes viennent de bondir.

Le fabricant de processeurs AMD vient d’annoncer le rachat du fabricant de puces spécialisées Xilinx pour 35 milliards de dollars. Plus en riposte au rachat d’ARM et de Mellanox par NVidia, que véritablement un énième coup de semonce contre son rival Intel, cette acquisition devrait permettre à AMD de proposer des configurations complètes pour les datacenters, avec des composants qui servent pour l’exécution des applications, et d’autres qui accélèrent les traitements spécialisés, dont le machine learning, le filtrage des données à la volée, ou encore la virtualisation des communications.

L’annonce de ce rachat succède de quelques heures à peine à la publication des derniers résultats trimestriels d’AMD, lesquels battent tous les records : ses ventes ont crû de 56 % en un an (à 2,8 mds $ de CA, contre 1,8 md $ auparavant), alors que même les analystes les plus optimistes lui prédisaient une croissance de 42 %. Ces bons résultats sont notamment dus aux modèles de processeurs AMD pour serveurs, les Epyc, dont les ventes ont plus que doublé en l’espace d’une année. Elles représentent aujourd’hui 1,13 md $, soit plus très loin de la moitié des revenus d’AMD, lequel a donc toutes les raisons de miser sur le datacenter.

Un calcul qu’avait fait avant lui Nvidia. Champion des cartes graphiques pour PC et stations de travail, ce constructeur avait vu son activité datacenter décoller au fur et à mesure que ses GPU étaient utilisés par des supercalculateurs, puis par des serveurs applicatifs comme accélérateurs de traitements spécialisés. Porté par cette croissance, NVidia a racheté en 2019 Mellanox, fabricant de cartes contrôleur Ethernet et Infiniband pour serveurs. Bien lui en a pris : grâce à cette acquisition, son chiffre d’affaires a bondi de 50 % en un an, ses ventes de produits pour datacenters ayant presque triplé, au point de dépasser les ventes de cartes graphiques pour PC. Porté par une telle dynamique dans les datacenters, Nvidia a racheté en septembre le concepteur de processeur ARM pour 40 milliards de dollars, afin de pouvoir proposer aux datacenters la panoplie complète des puces pour serveurs et ne plus devoir dépendre des processeurs d’Intel ou d’AMD.

En rachetant Xilinx, AMD suit un chemin inverse à celui de Nvidia : en tant que fabricant de processeurs, il s’enrichit d’une technologie de puces spécialisées. Mais le but est le même, à savoir vendre des composants pour serveurs sans devoir attendre qu’un NVidia puisse les compléter.

Fournir des composants spécialisés aux géants du cloud

Pour autant, Xilinx ne vend pas tout à fait la même chose que Nvidia. Ses puces sont des FPGA, à savoir des composants dont le circuit est reprogrammable pour que l’utilisateur final puisse optimiser dessus un algorithme particulier. En théorie, un FPGA Xillinx est capable d’offrir à une application la même accélération qu’un GPU Nvidia. En pratique, sa configuration est autrement plus complexe que celle d’un GPU. Au point d’ailleurs que seules les entreprises dotées d’un haut niveau de R&D pourraient l’utiliser via des développements internes, alors que les puces d’AMD sont exploitables à partir de n’importe quel code public.

Néanmoins, un FPGA est plus versatile : là où un GPU n’est efficace que sur les traitements par lot (répétition des mêmes instructions sur une très grande quantité de données du même type), un FPGA peut tout aussi bien servir à manipuler, filtrer ou transformer des flux de données hétéroclites. En clair, un FPGA ne sert pas qu’aux applications décisionnelles, il est aussi utile pour optimiser les télécommunications ou le stockage de données. Deux domaines de premier plan pour les hébergeurs de datacenters, dont les géants du cloud AWS, Azure et GCP qui, eux, ont toutes les capacités de R&D requises.

Or, les hébergeurs, tenus d’aligner des serveurs par milliers dans leurs bâtiments, figurent bien le nouvel El Dorado des fournisseurs d’infrastructures. D’autant plus dans un contexte où les entreprises vident leurs datacenters au profit de systèmes d’information en cloud hybride. Et ces hébergeurs ne sont pas des clients ordinaires : ils délaissent les serveurs clés en main de Dell EMC, HPE et consorts au profit de machines qu’ils assemblent eux-mêmes, composant par composant. Il y a un an, Cisco en faisait d’ailleurs l’amer constat : lui, fabricant historique d’équipements réseau sur étagère, se lançait dans la fourniture de composants, en l’occurrence l’ASIC Silicon One, pour répondre aux demandes des hyperscalers.

On notera qu’un ASIC et qu’un FPGA reviennent au final à la même chose, à savoir une puce dédiée à l’exécution d’un algorithme donné. En revanche, il est possible de mettre à jour le microcode d’un FPGA tout au long de sa carrière, alors que l’ASIC a été gravé comme un processeur ordinaire en usine, avec un microcode définitif.

Le décollage dans les datacenters qu’espérait tant AMD

L’accélération d’AMD dans les datacenters est portée par les performances commerciales de ses processeurs Epyc. Leur intérêt dans les serveurs tient à leur méthode de fabrication : en passant par les usines du Taiwanais TSMC et sa finesse de gravure en 7 nm, AMD parvient à vendre moins cher des processeurs pour serveurs qui ont plus de cœurs et qui consomment moins d’énergie que les Xeon d’Intel, lesquels stagnent à une finesse de 14 nm.

Au départ, les Epyc souffraient du défaut de ne pas pouvoir servir à étendre les clusters de serveurs déjà en place dans les datacenters. Des fonctions comme vMotion sur VMware, par exemple, supportent difficilement de déplacer les charges de travail à la volée, si les processeurs ne sont pas tous du même modèle. Ce défaut a disparu au fur et à mesure que les entreprises ont remplacé tous leurs serveurs vieillissants, puisque l’occasion leur était donnée de repartir sur une flotte de serveurs 100 % Epyc. Le renouvellement de parcs entiers après la première vague de crise de Covid-19 explique le succès inédit des Epyc dans les derniers résultats d’AMD.

Parmi les réussites du processeur Epyc, AMD se félicite de son adoption dans les serveurs des grands clouds Microsoft Azure et Google GCP, ainsi que dans ceux de la prochaine mise à jour d’Oracle OCI, avec la future version « Milan » du processeur, à base de cœurs Zen3. Amazon AWS, pour sa part, avait été le premier à se fournir en Epyc, plutôt que rester sur une offre de serveurs x86 uniquement à base d’Intel Xeon.

En face, Intel est à la peine pour réduire, aussi bien qu’AMD, la finesse de gravure de ses processeurs pour serveurs. Manifestement en quête de solutions pour renflouer ses caisses, le fondeur vient d’ailleurs d’annoncer un nouveau retard sur la livraison de ses prochains Xeon en 10 nm : les modèles Ice Lake sont repoussés à 2021.

Pour l’heure, Intel propose des Xeon Cooper Lake de 16 à 28 cœurs, cadencés de 2,3 à 2,9 GHz et consommant de 150 à 250 watts, pour des prix allant de 1 270 à 13 000 dollars l’unité. Les actuels Epyc Rome d’AMD offrent de 8 à 64 cœurs, sont cadencés à une fréquence de 2 à 3,2 GHz, consomment de 120 à 225 watts et coûtent de 575 à 6 950 dollars l’unité. Les Xeon ont l’exclusivité d’utiliser des barrettes Optane, ce qui leur permet d’avoir plus de mémoire, jusqu’à 4,5 To par socket. Les Epyc ont l’avantage de gérer déjà des bus PCIe 4.0, lesquels doublent les performances du stockage si le serveur hôte est équipé de SSD NVMe.   

On notera qu’Intel avait précédemment racheté lui aussi un fabricant de FPGA, Altera en 2015. À date, les hébergeurs n’ont pas communiqué sur une utilisation éventuelle de ces produits.

Pour approfondir sur Processeurs et composants

Close