Samsung va fabriquer des matrices logiques pour la mémoire AI HBM4 de nouvelle génération en utilisant un nœud de 4 nm

Samsung utilisera son processus de fonderie interne de 4 nm pour produire en masse sa mémoire HBM4 de nouvelle génération afin de rivaliser directement avec son concurrent sud-coréen SK hynix et TSMC dans la course à la suprématie de la mémoire IA.

Ouvrir la galerie 3

VOIR LA GALERIE – 3 IMAGES

Selon un nouveau rapport du Korea Economic Daily, Samsung utilisera son procédé de fonderie de 4 nm pour la matrice logique des puces mémoire HBM4 (HBM de sixième génération), selon des sources industrielles de KED. La matrice logique elle-même se trouve à la base des piles de matrices et est l'un des composants principaux d'une puce HBM utilisée sur les puces d'IA.

SK hynix, Samsung et Micron fabriquent tous du HBM, avec des matrices logiques utilisées sur la dernière mémoire HBM3E, mais la nouvelle mémoire HBM4 du futur nécessite un processus de fonderie prêt avec des fonctions personnalisées requises par les fabricants de puces d'IA comme NVIDIA, AMD et Intel, et plus encore.

Le nouveau nœud de processus 4 nm est le processus de fabrication de fonderie de puces emblématique de Samsung, avec des rendements supérieurs à 70 %. Samsung utilise le processus 4 nm pour son nouveau chipset Exynos 2400, qui équipe la nouvelle flotte de smartphones IA de la famille Galaxy S24 de Samsung.

La source industrielle de KED a expliqué : «Le procédé 4 nm est beaucoup plus coûteux que les procédés 7 nm et 8 nm, mais il est nettement supérieur en termes de performances de la puce et de consommation d'énergie. Samsung, qui fabrique le HBM3E avec le procédé 10 nm, vise à prendre le trône dans le secteur HBM en appliquant le procédé 4 nm« .

Samsung va fabriquer des matrices logiques pour la mémoire AI HBM4 de nouvelle génération en utilisant le nœud 909 de 4 nm
Ouvrir la galerie 3

Samsung utilise son nœud de processus 7 nm depuis 2019, et la société devrait utiliser des processus de fonderie 7 nm ou 8 nm pour produire ses matrices logiques HBM4, mais il semble que tous les signes pointent vers le nouveau nœud de processus 4 nm. SK hynix domine le secteur de la mémoire HBM aux côtés de NVIDIA depuis deux ans, en s'engageant dans un énorme partenariat avec TSMC pour produire la mémoire HBM4 de nouvelle génération.

Il y a également la nouvelle « alliance triangulaire » entre NVIDIA, TSMC et SK hynix pour l'avenir de la mémoire IA – en particulier HBM4, avec SK hynix accélérant le développement sur HBM4 pour une sortie en 2025, et la mémoire HBM4E de future génération à venir en 2026.

Les GPU AI Blackwell B100 et B200 de nouvelle génération de NVIDIA utiliseront la nouvelle norme de mémoire HBM3E, mais la société a déjà dévoilé son GPU AI Rubin R100 de future génération qui utilisera une mémoire HBM4 ultra-rapide, les GPU AI Rubin R100 devant être lancés au quatrième trimestre 2025.