AMDの次世代MI400 AI GPUは2025年に予想され、MI300 AI GPUのリフレッシュが進行中

AMDは少し前に、5.3TB/秒のメモリ帯域幅を備えた最大192GBのHBM3メモリを搭載した新しいInstinct MI300Xを発売しましたが、現在、次世代のInstinct MI400Xが2025年に向けて予告されています。

ギャラリーを開く 2

AMD の新しい Instinct MI300X AI GPU (出典: AMD)

Advertisement

ギャラリーを見る – 2 枚の画像

AMD の次世代 Instinct MI400X は、次世代 CDNA 4 GPU アーキテクチャとアップグレードされた HBM3e メモリをベースにしており、Instinct MI300X で使用されている HBM3 よりも高速です。 Xに関する新しい投稿のリーカーKepler氏によると、AMDはHBM3eメモリも搭載するリフレッシュされたMI300も用意するとのこと。

NVIDIA は、HBM3 メモリを搭載した現行世代の Hopper H100 AI GPU を市場に投入していますが、強化された H200 AI GPU は新しい超高速 HBM3e メモリを搭載しており、次世代 Blackwell B100 AI GPU は後に HBM3e を搭載してデビューする予定です。 3 月の GPU Technology Conference (GTC) イベントで発表された後、今年。

AMD の次世代 Instinct MI400X は、AI GPU の戦いを NVIDIA とその次世代 Blackwell B100 AI GPU に直接持ち込むことになり、両方の新しい AI アクセラレータによる AI パフォーマンスの大幅なアップグレードが期待できます。 HBM3e メモリは、HBM3 よりも速度が 50% 向上し、システムあたり最大 10 TB/秒のメモリ帯域幅、チップあたり最大 5 TB/秒のメモリ帯域幅を実現し、GPU あたり最大 141 GB の HBM3e メモリのメモリ容量を備えています。

Advertisement

ただし、AMD の今後の Instinct MI300 リフレッシュは、NVIDIA の H200 および B100 に対抗するリフレッシュされたものになります。 ケプラーはこう言います。」MI300 は HBM3e で更新される予定です。 またB100は高価なので、やはりコスト的にはMI300の方が有利です。」。

Advertisement