TSMC 3nm con packaging CoWoS-L, HBM4 di prossima generazione nel quarto trimestre del 2025

NVIDIA sta ancora sviluppando la sua nuova architettura GPU Blackwell e la GPU AI B200 e, anche se abbiamo avuto anticipazioni sulla GPU Vera Rubin di prossima generazione, ora sentiamo che la GPU AI R100 di prossima generazione sarà prodotta in serie nel quarto trimestre del 2025. .

Apri Galleria 2

VISUALIZZA GALLERIA – 2 IMMAGINI

In un nuovo post dell'insider del settore Ming-Chi Kuo, il chip AI di prossima generazione di NVIDIA entrerà in produzione di massa nel quarto trimestre del 2025 con la serie R e la GPU AI R100, mentre la soluzione sistema/rack entrerà in produzione di massa nel primo trimestre del 2026. L'R100 di nuova generazione sarà realizzato sul nuovo nodo di processo N3 di TSMC, rispetto a B100 che utilizza TSMC N4P, con R100 che utilizza il nuovo packaging CoWoS-L di TSMC (lo stesso di B100).

La GPU AI R100 di nuova generazione di NVIDIA presenta un design del reticolo circa 4x, rispetto alla B100 con design del reticolo 3,3x, mentre la dimensione dell'interposer per R100 “deve ancora essere finalizzata”, con Ming-Chi che afferma che ci sono 2-3 opzioni. R100 sarà dotato di 8 unità HBM4, mentre la nuova CPU Grace del GR200 utilizzerà il processo N3 di TSMC (rispetto all'N5 di TSMC per le CPU Grace di GH200 e GB200).

Advertisement

Ming-Chi afferma che NVIDIA si rende conto che il consumo energetico dei server AI è “diventato una sfida” per l'approvvigionamento dei clienti e la costruzione di data center. Ciò significa che i chip e i sistemi IA della serie R di prossima generazione di NVIDIA si concentrano sul miglioramento del consumo energetico oltre ai livelli successivi di potenza di elaborazione IA.

Il post completo di Ming-Chi diceva:

Advertisement

  1. Il chip AI di prossima generazione di NVIDIA, il chip AI serie R/R100, entrerà in produzione di massa nel quarto trimestre del 25 e la soluzione sistema/rack inizierà probabilmente la produzione di massa nel primo semestre del 26.
  2. R100 utilizzerà il nodo N3 di TSMC (rispetto a N4P di TSMC per B100) e il packaging CoWoS-L (come B100).
  3. L'R100 adotta un design del reticolo circa 4x (rispetto al 3,3x del B100).
  4. La dimensione dell'interpositore per R100 deve ancora essere definita. Ci sono 2-3 opzioni.
  5. L'R100 sarà equipaggiato con otto unità HBM4.
  6. La CPU Grace di GR200 utilizzerà il processo N3 di TSMC (rispetto a N5 di TSMC per GH200 e CPU Grace di GB200).
  7. NVIDIA è consapevole che il consumo energetico dei server AI è diventato una sfida per l'approvvigionamento dei clienti e la costruzione di data center. Pertanto, i chip e le soluzioni di sistema della serie R si concentrano sul miglioramento del consumo energetico oltre a potenziare la potenza di calcolo dell’intelligenza artificiale.

Advertisement