SK hynix è stato il fornitore esclusivo iniziale di HBM3 per NVIDIA, Samsung e Micron in fase di recupero

Le migliori GPU AI di NVIDIA e AMD utilizzano la memoria HBM3, ma con l’introduzione della GPU AI H200, NVIDIA sarà la prima a commercializzare una GPU AI basata su HBM3E.

Apri Galleria 2

VISUALIZZA GALLERIA – 2 IMMAGINI

HBM3E sarà presente all’interno delle prossime GPU AI H200 e B100 di prossima generazione di NVIDIA, con TrendForce che sottolinea che il collo di bottiglia della fornitura dovuto alla tecnologia avanzata di packaging CoWoS e il lungo ciclo di produzione di HBM estendono la sequenza temporale dall’avvio del wafer alla produzione finale negli ultimi 6 mesi.

L’attuale GPU AI H100 di NVIDIA utilizza la memoria HBM3 fornita principalmente da SK hynix, che ha causato problemi di stock in tutto il mondo a causa dell’elevata domanda di GPU AI. L’ingresso di Samsung nella catena di fornitura di NVIDIA con la sua nuova memoria HBM3 alla fine del 2023, è stato “inizialmente minore, significa la sua svolta in questo segmento”, riferisce TrendForce.

Advertisement

Nel rapporto di TrendForce si legge: “Il passo di Samsung è continuato mentre le sue offerte HBM3 hanno ricevuto la certificazione della serie AMD MI300 entro il primo trimestre del 24, rafforzando la sua posizione come fornitore cruciale per AMD. Questa pietra miliare apre la strada a un aumento della distribuzione della produzione HBM3 di Samsung a partire dal primo trimestre del 24. Vale la pena notare che Micron non è ancora entrata nel mercato delle forniture HBM, lasciando SK Hynix e Samsung come attori chiave. Samsung, in particolare, è pronta a guadagnare rapidamente quote di mercato con la distribuzione della serie MI300 di AMD in aumento nei trimestri successivi”.

Il rapporto continua affermando che a partire da quest’anno si verificherà un enorme passaggio da HBM3 a HBM3E, posizionando la memoria HBM3E come la nuova corrente principale nel mercato HBM. TrendForce riferisce che SK Hynix è all’avanguardia con la convalida HBM3E nel primo trimestre del 2024, seguita da vicino da Micron, che avrà la sua memoria HBM3E verso la fine del primo trimestre del 2024, pronta per la nuova GPU AI H200 di NVIDIA, che verrà rilasciata entro la fine del secondo trimestre 2024.

Advertisement

Samsung è “leggermente indietro nell’invio dei campioni”, ma prevede di completare la convalida HBM3E entro la fine del primo trimestre del 2024, con le spedizioni della sua nuova memoria HBM3E nel secondo trimestre del 2024. Samsung ha “già fatto passi da gigante in HBM3 e si prevede la sua convalida HBM3E che sarà completato a breve; l’azienda è pronta a ridurre significativamente il divario in termini di quote di mercato con SK hynix entro la fine dell’anno, rimodellando le dinamiche competitive nel mercato HBM”.

Advertisement