la nostra GPU Blackwell di prossima generazione costerà da $ 30.000 a $ 40.000 ciascuna

Il CEO di NVIDIA Jensen Huang ha dichiarato questa settimana alla CNBC che le nuove GPU AI Blackwell B200 costeranno dai 30.000 ai 40.000 dollari ciascuna.

Nell’intervista alla CNBC, Jensen ha anche affermato che NVIDIA ha speso ben 10 miliardi di dollari in attività di ricerca e sviluppo in Blackwell, una somma di denaro enorme per quella che sarà la migliore tecnologia GPU AI che il mondo abbia mai visto. Ad un prezzo compreso tra $ 30.000 e $ 40.000 ciascuno, non è male considerando che ci si aspettava che NVIDIA avrebbe addebitato $ 50.000 – $ 60.000 ciascuno.

Non sappiamo se Jensen si riferisse alla GPU AI Blackwell B100 o alla GPU AI B200 di punta… ma considerando che B200 è stata quella che NVIDIA ha mostrato e per cui ha dettagliato alcune delle sue specifiche al GTC 2024 questa settimana, ti aspetteresti che Jensen significava B200. NVIDIA otterrà enormi profitti se B200 costa $ 6000, con un prezzo di vendita di 5 volte quello… i profitti per la fine di quest’anno e fino al 2025 faranno sembrare i recenti guadagni record come una piccola onda rispetto alla GPU AI finanziari con uno tsunami alimentato dal B200.

Ora, per quanto riguarda la nuova GPU AI Blackwell B200 di NVIDIA: la nuova GPU AI NVIDIA B200 presenta ben 208 miliardi di transistor realizzati sul nuovo nodo di processo N4P di TSMC. Dispone inoltre di 192 GB di memoria HBM3E ultraveloce con 8 TB/sec di larghezza di banda della memoria. NVIDIA non utilizza un singolo die GPU qui, ma un die multi-GPU con una piccola linea tra i die che differenzia i due die, una novità assoluta per NVIDIA.

Advertisement

I due chip pensano di essere un unico chip, con 10TB/sec di larghezza di banda tra i die della GPU, che non hanno idea di essere separati. I due die GPU B100 pensano di essere un singolo chip, senza problemi di localizzazione della memoria e di cache… pensa semplicemente che sia una singola GPU e fa il suo lavoro (AI) a velocità vertiginose, grazie a NV-HBI (Interfaccia NVIDIA a larghezza di banda elevata).

Apri Galleria 3

VISUALIZZA GALLERIA – 3 IMMAGINI

Advertisement

La nuova GPU AI B200 di NVIDIA offre 20 petaflop di prestazioni AI da una singola GPU, rispetto ai soli 4 petaflop di prestazioni AI dell’attuale GPU AI H100. Degno di nota. Nota: NVIDIA sta utilizzando un nuovo formato numerico FP4 per questi numeri, con H100 che utilizza il formato FP8, il che significa che B200 ha un calcolo teorico FP8 2,5 volte superiore rispetto a H100. Comunque, molto impressionante.

Ciascuna delle GPU B200 utilizza due chip a reticolo completo, con 4 stack HBM3E da 24 GB ciascuno, insieme a 1 TB/sec di larghezza di banda di memoria su un’interfaccia di memoria a 1024 bit. Il totale di 192 GB di memoria HBM3E, con 8 TB/sec di larghezza di banda della memoria, rappresenta un enorme aggiornamento rispetto alla GPU AI H100, che aveva 6 stack HBM3 da 16 GB ciascuno (inizialmente, H200 lo ha portato fino a 24 GB per stack).

NVIDIA utilizza un nuovissimo design di chip NVLink che ha 1,8 TB/sec di larghezza di banda bidirezionale e supporto per un dominio NVLink da 576 GPU. Questo stesso chip NVLink presenta 50 miliardi di transistor, prodotti da TSMC sullo stesso nodo del processo N4P.

Advertisement

Advertisement