現在のボンディング技術を使用した 16-Hi スタックが許可されています

HBM3E メモリは、NVIDIA が今後強化する H200 AI GPU によって解放されようとしていますが、JEDEC が HBM4 メモリ構成のルールを緩和したと伝えられています。

ギャラリーを開く 2

ギャラリーを見る – 2 枚の画像

Advertisement

JEDEC は、HBM4 のパッケージの厚さを 12 層と 16 層の HBM4 スタックの両方で 775 マイクロメートルまで削減したと報告されています。これは、厚さレベルが高くなるほど複雑になり、容易になるためです…特に HBM メーカーが困難に直面している中で、 AI GPU に対する飽くなき需要 (現在、そして HBM4 搭載チップによる将来も)。

SK ハイニックス、マイクロン、サムスンなどの HBM メーカーは、オンボード チップとウェーハとの直接接合を使用する HBM4 のパッケージ厚を削減するために、プロセスとのハイブリッド ボンディング、新しいパッケージング技術などを使用する準備ができていました。 ただし、HBM4 は新しいテクノロジーであるため、ハイブリッド ボンディングにより価格が上昇し、HBM4 を搭載した将来の AI GPU がさらに高価になると考えられています。

ZDNet Koreaの新しいレポートでは、情報筋は、HBMメーカーはJEDECによって示された「緩和」を利用するだろうと述べた。 SK ハイニックスが 2026 年に次世代 HBM4 メモリを量産し、サンプルの最初のバッチはスタックあたり 36 GB を誇ることが予想されることがわかっています。

SKハイニックス、マイクロン、サムスンがHBM4メモリ技術の進化に参加しており、NVIDIA、AMD、インテルも「協議に参加している」とZDNet Koreaが報じている。 これらの企業が「1回目と2回目の交渉で結果を出せなかった」のは、「参加企業がHBM4規格を775マイクロメートルに緩和することに反対を表明した」ためだという。

Advertisement

しかし、最近の 3 回目の協議では、12 層積層 HBM4 と 16 層積層 HBM4 の両方で 775 マイクロメートルであることが合意されました。 これはメモリ企業が現在の720マイクロメートルの厚さを維持するのは「限界に達した」と積極的に主張しているおかげだ。 NVIDIAやAMDなども「メモリ会社からHBMの供給をスムーズに行うため、この提案を前向きに受け入れた」という。

Advertisement