Micron annonce que la mémoire HBM3e entre en production en volume, prête pour le nouveau GPU H200 AI de NVIDIA

Consultez notre autre site internet Juexparc.fr pour plus d’actualités et d’informations sur les jeux

Micron vient d’annoncer qu’il a commencé la production en volume de sa mémoire HBM3e de pointe, avec les matrices de bonne pile connues (KGSD) HBM3e de la société livrées dans le cadre du prochain GPU H200 AI de NVIDIA.

Ouvrir la galerie 2

VOIR LA GALERIE – 2 IMAGES

Advertisement

Le nouveau GPU H200 AI renforcé de NVIDIA comportera jusqu’à 141 Go de mémoire HBM3e ultra-rapide de Micron, qui proviendra de sa mémoire 8-Hi HBM3e de 24 Go produite en série, avec des taux de transfert de données de 9,2 GT/s et une mémoire maximale. bande passante de plus de 1,2 To/s par GPU. Il s’agit d’une augmentation de 44 % de la bande passante mémoire par rapport au HBM3, ce qui fournit le grognement IA supplémentaire du H200 par rapport au GPU H100 AI et à sa mémoire HBM3 habituelle.

Les 141 Go de mémoire HBM3e sur le GPU NVIDIA H200 AI offriront jusqu’à 4,8 To/s de bande passante mémoire, soit une augmentation par rapport aux 80 Go de mémoire HBM3 et jusqu’à 3,35 To/s de bande passante mémoire sur le GPU H100 AI.

Sumit Sadana, vice-président exécutif et directeur commercial de Micron Technology, a déclaré dans le communiqué de presse : «Micron offre un trio gagnant avec cette étape importante du HBM3E : un leadership en termes de délais de mise sur le marché, les meilleures performances du secteur et un profil d’efficacité énergétique différencié.« .

Sadana a poursuivi : « Les charges de travail d’IA dépendent fortement de la bande passante et de la capacité de la mémoire, et Micron est très bien placé pour soutenir la croissance significative de l’IA à venir grâce à notre feuille de route HBM3E et HBM4, leader du secteur, ainsi qu’à notre portefeuille complet de solutions DRAM et NAND pour les applications d’IA.« .

Advertisement

HBM3E : alimenter la révolution de l’IA

Alors que la demande en IA continue d’augmenter, le besoin de solutions de mémoire pour suivre le rythme des charges de travail croissantes est crucial. La solution HBM3E de Micron relève ce défi de front avec :

  • Une performance supérieure: Avec une vitesse de broche supérieure à 9,2 gigabits par seconde (Gb/s), le HBM3E de Micron fournit plus de 1,2 téraoctets par seconde (To/s) de bande passante mémoire, permettant un accès ultra-rapide aux données pour les accélérateurs d’IA, les supercalculateurs et les centres de données.
  • Efficacité exceptionnelle: Le HBM3E de Micron est à la pointe du secteur avec une consommation d’énergie inférieure d’environ 30 % par rapport aux offres concurrentes. Pour répondre à la demande et à l’utilisation croissantes de l’IA, HBM3E offre un débit maximal avec les niveaux de consommation d’énergie les plus bas afin d’améliorer les mesures importantes des dépenses opérationnelles du centre de données.
  • Évolutivité transparente: Avec 24 Go de capacité aujourd’hui, le HBM3E de Micron permet aux centres de données de faire évoluer de manière transparente leurs applications d’IA. Que ce soit pour entraîner des réseaux de neurones massifs ou accélérer les tâches d’inférence, la solution de Micron fournit la bande passante mémoire nécessaire.

Advertisement