NVIDIA sta qualificando i nuovi chip HBM3E di Samsung e li utilizzerà per le future GPU AI B200

Il CEO di NVIDIA Jensen Huang ha dichiarato alla stampa durante un briefing con i media al GTC 2024 che “La memoria HBM è molto complicata e il valore aggiunto è molto elevato. Stiamo spendendo molti soldi per la HBM“. Jensen ha aggiunto: “Samsung è molto buona, un’ottima azienda“.

Apri Galleria 2

VISUALIZZA GALLERIA – 2 IMMAGINI

SK hynix soddisfa la maggior parte delle esigenze di memoria avanzata HBM3 e HBM3E per NVIDIA e il suo crescente arsenale di GPU AI con Hopper H100, H200 e le nuove GPU AI Blackwell B100 e B200, tutte che utilizzano memoria HBM. Jensen ha continuato: “Il ciclo di aggiornamento per Samsung e SK Hynix è incredibile. Non appena NVIDIA inizia a crescere, loro crescono con noi. Apprezzo moltissimo la nostra partnership con SK Hynix e Samsung“.

La notizia direttamente dal CEO di NVIDIA che utilizzerà la memoria HBM fornita da Samsung ha fatto sì che mercoledì le azioni dell’azienda sudcoreana aumentassero del 5,6%.

Advertisement

Samsung ha recentemente mostrato la sua nuova memoria GDDR7 a 32 Gbps al GTC 2024, con la memoria GDDR7 da 28 Gbps prevista per il debutto all’interno delle GPU GeForce RTX serie 50 di prossima generazione basate su Blackwell di NVIDIA. La scorsa estate Samsung ha inoltre collaborato con NVIDIA sulla verifica tecnica dei chip di memoria HBM3 di quarta generazione e sui servizi di packaging.

SK Hynix, rivale sudcoreano di HBM, ha annunciato questa settimana la produzione di massa dei suoi chip di memoria HBM3E di prossima generazione, fornendo a NVIDIA HBM3E per le sue nuove GPU AI Blackwell B200. SK hynix ha fatto campionare i suoi chip di memoria HBM3E a NVIDIA l’anno scorso, quindi a questo punto sono avanti rispetto a Samsung di mesi e mesi.

Advertisement

Advertisement