Puces IA : SK Hynix lance la production des mémoires HBM4

Ce nouveau type de mémoire contribuera aux deux tiers des gains de performances qu’afficheront les prochains GPU. Pour SK Hynix, il s’agit surtout d’une avancée considérable face à Samsung, l’actuel leader des composants mémoires.

Le fabricant coréen de semi-conducteurs SK Hynix annonce qu’il est prêt à démarrer la production de circuits HBM4, soit la nouvelle génération de cette mémoire ultrarapide que Nvidia, AMD et Intel insèrent directement dans leurs puces haut de gamme. Selon le fondeur, ses circuits de mémoire HBM4 seraient deux fois plus rapides que les actuels circuits HBM3e et ils consommeraient, à capacité équivalente, 40 % d’énergie en moins.   

« Ce que nous annonçons, ce n’est plus ni moins que la mise en place de la première production de masse au monde de HBM4. Cette mémoire incarne un tournant dans les infrastructures dédiées à l’IA. Grâce à nous, elle sera là au moment opportun pour fournir les nouvelles performances promises par les prochaines puces d’IA », se félicite Justin Kim, responsable des produits d’IA chez SK Hynix, dans le communiqué.

En l’occurrence, la mémoire HBM4 est censée accompagner les prochains GPU Rubin que Nvidia doit commercialiser à partir de 2026. Elle contribuerait à 69 % au gain de vitesse que les GPU Rubin afficheront par rapport aux actuels GPU Blackwell B200 et B300 de Nvidia.

La nouveauté de cette mémoire HBM4 n’est pas que ses circuits soient gravés plus finement (ils le sont toujours avec une précision de 10 nm), mais que leur empilement soit plus important, ce qui permet de doubler le nombre de connexions parallèles avec la puce de calcul. Il y en a à présent 2048, contre 1024 en HBM3E.

Devancer Samsung

Si la mémoire HBM4 promet essentiellement d’améliorer encore la rapidité des prochaines puces dédiées à l’entraînement des IA, la victoire ici est surtout que SK Hynix a réussi à devancer son compatriote Samsung, l’actuel plus important fournisseur de ce type de circuits.

Selon les spécialistes de ce secteur, Samsung perdrait en ce moment beaucoup d’énergie et d’argent à tenter de rattraper le fondeur taiwanais TSMC dans la gravure de pointe de processeurs. Et cela aurait ralenti considérablement ses efforts dans la conception de la nouvelle génération de mémoire HBM, alors que SK Hynix y a investi 57 milliards de dollars l’année dernière.

Précisons que les progrès réalisés dans la gravure de processeurs ne sont pas déclinables dans la gravure des mémoires. Dans le premier cas, il s’agit d’augmenter la finesse de gravure pour gagner en vitesse. Et Samsung semble batailler pour franchir le mur des 2 nm. Sa branche semiconducteurs y investit le gros de ses ressources financières. Ainsi, même si les ventes de mémoires Samsung sont supérieures à celles de SK Hynix, ses bénéfices sur cette activité ont fondu à 308 millions de dollars lors du dernier trimestre (-94 % en un an), alors que ceux de SK Hynix atteignent 6,7 milliards de dollars.

Le défi technologique : empiler plus de circuits sans les ralentir

Le progrès dans le second cas, celui de la gravure des mémoires, consiste à augmenter l’empilement des circuits, pour densifier la capacité et démultiplier les connexions très courtes (les plus rapides) vers la puce de calcul.

Problème : plus les circuits sont gravés finement, plus leur empilement est compliqué à réaliser. Ainsi, dans le domaine des SSD, le passage à l’empilement des circuits de NAND s’est traduit de manière paradoxale par une croissance de la gravure, passant d’une précision de 16 nm à une précision de 35 nm. Samsung, qui fait office de précurseur dans la fabrication de telles NAND-3D, n’est officiellement pas encore parvenu à résoudre cette difficulté.

D’autant que l’enjeu sur les SSD est inexistant. La vitesse perdue à cause d’une gravure plus importante des NAND est négligeable derrière le contrôleur d’un SSD qui fait de toute façon office de goulet d’étranglement.

En revanche, il semble exclu d’augmenter pareillement la gravure des circuits de DRAM dans une mémoire HBM, car la vitesse ainsi perdue impacterait directement les performances de la puce de calcul. Cette perte ne sera en effet pas entièrement compensée par l’augmentation des connexions directes à la puce de calcul. Manifestement, les importants investissements de SK Hynix lui ont permis de sortir de cette impasse.

Une avancée significative pour SK Hynix

La prouesse de SK Hynix est d’avoir amélioré une technologie, appelée MR-MUF (Mass Reflow-Molded UnderFill 4), qui consiste à amonceler les circuits de DRAM dans une solution liquide, plutôt qu’en les imprimant sur des films qu’il faut superposer. Cette technique résout la difficulté d’empiler deux fois plus d’étages de circuits de DRAM dans une mémoire HBM, sans toucher à leur finesse de gravure.

Mieux, le matériau liquide réduisant aussi l’énergie consommée, la mémoire HBM4 de SK Hynix supporterait un débit de 10 Gbit/s par connexion vers la puce de calcul, alors que le JEDEC, l’organisme qui standardise les architectures des circuits intégrés, tablait sur 8 Gbit/s par connexion.

L’avancée de SK Hynix est si significative que TSMC a consenti l’année dernière à lui acheter des licences de sa technologie afin de fabriquer dans ses propres usines des mémoires HBM4.

Dans le cadre de cet accord, les deux fondeurs vont aussi collaborer pour améliorer la compatibilité des mémoires HBM de SK Hynix avec le procédé CoWoS (Chip on Wafer on Substrate) mis au point par TSMC pour assembler dans la même puce des circuits avec différentes finesses de gravure.

Dernier avantage de SK Hynix, le fondeur devrait être moins impacté que Samsung par la récente interdiction des USA d’assembler des mémoires en Chine, car il avait dès l’année dernière annoncé le déménagement de cette activité sur le sol américain.

Pour approfondir sur Hardware IA (GPU, FPGA, etc.)