CoWoS-L パッケージを備えた TSMC 3nm、次世代 HBM4 は 2025 年第 4 四半期に

NVIDIA はまだ新しい Blackwell GPU アーキテクチャと B200 AI GPU を開発中です。次世代 Vera Rubin GPU についての噂はありましたが、今度は次世代 R100 AI GPU が 2025 年第 4 四半期に量産されると聞いています。 。

ギャラリーを開く 2

ギャラリーを見る – 2 枚の画像

Advertisement

業界関係者 Ming-Chi Kuo 氏の新しい投稿によると、NVIDIA の次世代 AI チップは、R シリーズおよび R100 AI GPU とともに 2025 年第 4 四半期に量産開始され、システム/ラック ソリューションは 2026 年第 1 四半期に量産開始される予定です。次世代の R100 は、TSMC N4P を使用する B100 と比較して、TSMC の新しい N3 プロセス ノードで製造され、R100 は TSMC の新しい CoWoS-L パッケージ (B100 と同じ) を使用します。

NVIDIA の次世代 R100 AI GPU は、B100 の 3.3 倍のレチクル設計と比較して、約 4 倍のレチクル設計を特徴としていますが、R100 のインターポーザーのサイズは「まだ最終決定されておらず」、2 ~ 3 つの選択肢があると Ming-Chi 氏は述べています。 R100 は 8 個の HBM4 ユニットを搭載し、GR200 の新しい Grace CPU は TSMC の N3 プロセスを使用します (GH200 および GB200 の Grace CPU 用の TSMC の N5 と比較して)。

Ming-Chi 氏は、NVIDIA は AI サーバーの電力消費が顧客の調達とデータセンター建設にとって「課題になっている」ことを認識していると述べています。 これは、NVIDIA の次世代 R シリーズ AI チップとシステムが、次のレベルの AI コンピューティング能力に加えて、消費電力の改善にも焦点を当てていることを意味します。

ミンチー氏の投稿全文にはこう書かれていた。

Advertisement

  1. NVIDIA の次世代 AI チップである R シリーズ/R100 AI チップは 25 年第 4 四半期に量産が開始され、システム/ラック ソリューションは 26 年上半期に量産が開始される可能性があります。
  2. R100 は、TSMC の N3 ノード (B100 の場合は TSMC の N4P) と CoWoS-L パッケージング (B100 と同じ) を使用します。
  3. R100 は約 4 倍のレティクル設計を採用しています (B100 の 3.3 倍)。
  4. R100 のインターポーザーのサイズはまだ決定されていません。 選択肢は 2 ~ 3 つあります。
  5. R100 には HBM4 ユニットが 8 基搭載されます。
  6. GR200 の Grace CPU は TSMC の N3 プロセスを使用します (GH200 および GB200 の Grace CPU の場合は TSMC の N5 プロセス)。
  7. NVIDIA は、AI サーバーの消費電力がお客様の調達とデータセンター構築の課題になっていると認識しています。 したがって、R シリーズのチップとシステム ソリューションは、AI のコンピューティング能力の強化に加えて、消費電力の改善にも重点を置いています。

Advertisement