H_Ko - stock.adobe.com

Réseau : Cisco dévoile une puce Silicon One 92 fois plus dense

Le P200 de Cisco permet de réduire la consommation électrique des switches Ethernet de 65%. Conçu pour les hyperscalers, il a la faculté de partager les traitements d’IA entre plusieurs sites, ce qui intéresserait aussi les entreprises.

Cisco lance une nouvelle puce contrôleur Silicon One P200 et un switch Ethernet 8223 qui en est équipé. Ils sont destinés aux réseaux des hyperscalers, notamment Alibaba et Microsoft Azure. Les analystes estiment cependant qu'ils pourraient aussi bientôt jouer un rôle clé dans les infrastructures IA des entreprises.

Selon un billet de blog de Cisco, le routeur 8223, avec son unique puce P200 et son boîtier 3U, aurait une puissance équivalente à l’ancien switch 8804 que Cisco a sorti en 2023, dans un boîtier 10U. Pour une même capacité de routage de 51,2 Tbit/s au niveau du P200, soit 64 ports Ethernet 800 Gbit/s, le 8223 consommerait 65 % moins d'énergie que le 8804.

Cisco indique que la densification tient essentiellement au fait que le P200 regroupe l’équivalent de 92 puces dans l’ancien switch. Ces puces n’étaient pas que des contrôleurs Silicon One de génération précédente ; Cisco comptabilise aussi les composants de DRAM utilisés pour la mémoire cache. Cette mémoire cache est désormais intégrée dans le P200 sous la forme d’un circuit HBM.

Lancée pour la première fois en 2019, la puce Silicon One de Cisco est un contrôleur pour équipements de routage réseau. Il en existe désormais des versions pour toutes les gammes, du switch au plus proche des serveurs jusqu’à ceux en cœur de réseau. L’A100 route 1,2 Tbit/s, le K100 comme sa déclinaison avec firmware personnalisé E100 routent 6,4 Tbit/s et le Q200 12,8 Tbit/s.

Il existe également une déclinaison G200 du P200 avec, comme pour l’E100, un firmware programmable à façon pour transporter des protocoles réseau spécifiques.  

Face à Nvidia et Broadcom

Ce nouveau contrôleur et les routeurs qui vont de pair sont vendus comme étant de type « scale-accross networking », un terme inventé par Nvidia lors du lancement de ses équipements Ethernet Spectrum-XGS en août, lesquels sont conçus pour étendre les réseaux d’IA au-delà des limites d'un seul datacenter.

« C’est une problématique que rencontrent en ce moment les grands hébergeurs de services de calcul en IA : la quantité de GPU qu’ils proposent de conjuguer pour un seul entraînement intensif dépasse la capacité électrique d’un datacenter. Dès lors, il leur faut pouvoir faire travailler ensemble, sur le même réseau, des GPU qui se trouvent sur différents sites, voire dans plusieurs villes », commente Sameh Boujelbene, analyste pour le cabinet Dell'Oro Group.

La famille Spectrum-XGS de Nvidia que veut concurrencer Cisco comprend des switches Spectrum-X et des cartes réseau ConnectX-8 capables de véhiculer 800 Gbit/s par port Ethernet. Ces équipements intègrent également des algorithmes qui adaptent dynamiquement la gestion du trafic et de la latence à la distance qui sépare différents datacenters. L’hébergeur de services d’IA CoreWeave les aurait déjà déployés.

Deux autres concurrents sont, chez Broadcom, le nouveau contrôleur Ethernet Tomahawk 6 pour les switches à l’intérieur d’un datacenter, et le contrôleur Jericho4 pour ceux qui interconnectent les datacenters. Ceux-ci sont susceptibles d’intégrer de nouveaux routeurs de marques Arista et Juniper.

Consommer moins d’énergie

Selon Cisco, le traitement des paquets par les puces Silicon One aurait ceci d’unique que tous les flux partagent la même mémoire cache, désormais intégrée sous forme de circuit HBM dans le P200.

« Il a été dit qu’utiliser une telle mémoire cache de grande taille serait contre-productif dans les traitements de l’IA, à cause de sa consommation élevée d’électricité. Il est vrai que calculer proactivement le contrôle des congestions en tirant parti de la prévisibilité des traitements en IA est énergétiquement plus efficace. Pour autant, des caches de grande taille restent nécessaires pour faire face aux défaillances qui surviennent dans le réseau, ce qui, à cette échelle, est la norme et non l'exception. Or, partager ce cache est notre clé pour réduire drastiquement la consommation d’énergie » a argumenté Rakesh Chopra, l’un des directeurs de Cisco, lors d’une présentation à la presse.

Et de détailler : grâce à ce cache partagé, nous ne déplaçons pas les paquets en amont des ports selon la congestion du réseau. Nous écrivons les paquets une fois, nous les lisons une fois. Et, tout ce que nous faisons, c'est manipuler des descripteurs pour les orienter vers les bons ports. »

« Une fois que vous faites cela, il y a un effet cumulatif, car tout a été considérablement réduit. Les composants chauffant moins, nous pouvons réduire la puissance de nos ventilateurs, nous pouvons utiliser des alimentations moins puissantes, avec moins de déperditions. Nous avons cherché à économiser chaque watt dans ce système. Car la consommation d’énergie est la limitation fondamentale dans l’IA », a-t-il ajouté.

Bientôt dans les datacenters des entreprises ?

Les hyperscalers et autres hébergeurs de services de calcul intensifs ont des besoins qui dépassent largement ceux des datacenters privés actuels. Pour autant, Sameh Boujelbene estime que ces équipements réseau pourraient bien finir par être vendus aux entreprises. Car celles-ci manifestement plus que jamais le désir de s’émanciper des hébergeurs de cloud américains pour leurs traitements en IA.

« Tous les gouvernements considèrent l'IA comme un facteur de différenciation très important, voire comme une question de vie ou de mort », explique-t-elle. « Ils se livrent à une course effrénée, non seulement pour construire leur infrastructure IA, mais aussi pour en prendre le contrôle. La question de savoir qui va déployer ces systèmes, et à quel endroit, est un sujet majeur. Et Cisco est très actif dans les projets gouvernementaux. Pas seulement aux États-Unis, mais aussi en Europe et au Moyen-Orient. »

Elle estime ainsi que ces équipements capables de mettre sur le même réseau différents petits sites seraient une alternative à l’incapacité des entreprises traditionnelles d’investir dans des datacenters gigantesques.

Un avis que rejoint Matthew Kimball, analyste chez Moor Insights & Strategy : « l'IA va pousser de nombreuses entreprises à adopter une approche de type hyperscaler, en mettant en place une structure d’interconnexion ultrarapide entre des sites, ne serait-ce que pour favoriser l'IA agentique à grande échelle », dit-il.

Pour approfondir sur LAN, Wifi