AMD Instinct MI300X は、NVIDIA Hopper H100 AI GPU よりも「はるかに優れた」オプションです

AI スタートアップ TensorWave は、AMD Instinct MI300X AI アクセラレータを搭載したセットアップを初めて公的に導入した企業の 1 つであり、同社の CEO は、それらは NVIDIA の有力な Hopper H100 AI GPU よりもはるかに優れた選択肢であると述べています。

TensorWave は、AMD がリリースしたばかりの Instinct MI300X AI アクセラレータを搭載した AI システムの調達を開始しました。同社は、NVIDIA の Hopper H100 AI GPU の数分の 1 のコストで MI300X チップをリースする予定です。 TensorWave は、年末までに 2 つの施設に AMD の新しい Instinct MI300X AI アクセラレータを 20,000 台導入する予定であり、2025 年には液冷システムをオンラインにする計画もあります。

Advertisement

Jeff Tatarchuk 氏は、AMD の新しい Instinct MI300X AI GPU が「単なる生のスペックであり、MI300X が H100 を支配している」と述べましたが、彼は間違っていません。 しかし、これは 40GB および 80GB の HBM3 オプションを備えたオリジナルの H100 であり、最大 4.8TB/秒のメモリ帯域幅を備えたはるかに大容量の 141GB の超高速 HBM3e メモリを備えた強化された H200 ですが、Blackwell B200 が登場すると、NVIDIA はB200 AI GPU に 8TB/秒のメモリ帯域幅で 192TB の HBM3e を搭載した AI GPU ゲーム。

  • AMD Instinct MI300X: 192GB HBM3e @ 最大 5.3TB/秒
  • NVIDIA H100: 80GB HBM3 @ 最大 3.35TB/秒
  • NVIDIA H200: 141GBのHBM3e @ 最大4.8TB/秒
  • NVIDIA B200: 192GBのHBM3e @ 最大8TB/秒

これまでのところ、AMD が AI GPU で最も多くの VRAM を搭載しており、NVIDIA は H100 と 80GB が限界で遅れを取っていますが、中国にいて H100 96GB モデルが利用できる場合は別であり、141GB の HBM3e を搭載した次期 H200 でさえも劣っています。 – はい、これは HBM3e であり、より多くのメモリ帯域幅を備えていますが、AMD の Instinct MI300X ほどではなく、高速でもありません。

ただし、AI ワークロード用の純粋なハードウェアと VRAM だけではなく、実際の AI アクセラレータまたは AI GPU は、NVIDIA の主要な H100 AI GPU と同じパフォーマンスを提供する必要があります。 Tatarchuk 氏は、AMD の新しい Instinct MI300X AI アクセラレータは NVIDIA に代わる優れた代替品であると多くの熱意を持っているが、顧客は同じパフォーマンスが得られるかどうか確信が持てないと述べています。

彼は言った: “また、「NVIDIA で現在慣れているものと同じくらい優れたものになるかどうかは 100% わかりません」という意見もたくさんあります。、」 それは本当です。

Advertisement

Advertisement