SK Hynix prevede ricavi dai chip di memoria HBM superiori a 10 miliardi di dollari nel 2024

SK Hynix ha avuto un anno assolutamente eccezionale cavalcando l’onda sempre crescente dell’intelligenza artificiale, con il colosso sudcoreano delle memorie che prevede entrate per oltre 10 miliardi di dollari dalla sola HBM entro la fine del 2024.

Apri Galleria 2

VISUALIZZA GALLERIA – 2 IMMAGINI

La notizia arriva dall'outlet sudcoreano TheElec, che riassume che SK hynix ha esaurito la fornitura di memoria HBM per il 2024 ed è già vicina a esaurire la fornitura di memoria HBM per il 2025. L'attuale H100 di NVIDIA utilizza HBM3, mentre le sue nuove GPU AI H200 e B200 di nuova generazione utilizzano entrambe la memoria HBM3E, fornita da SK hynix.

SK hynix sta mantenendo un vantaggio rispetto ai suoi concorrenti HBM Samsung e Micron, con l'intenzione di fornire campioni del suo nuovo HBM3E a 12 stack questo mese, con la produzione di massa dei nuovi chip di memoria HBM prevista nel terzo trimestre del 2024 secondo il CEO di SK hynix Kwak Noh- Jung in una conferenza stampa giovedì.

Advertisement

Si teme che potremmo assistere ad un eccesso di offerta di HBM sul mercato, ma il CEO di SK Hynix si è affrettato a fermare questo treno di pensieri, ribadendo che HBM è diversa dalle memorie per uso generale come le memorie GDDR e DDR, che si basano sulla domanda dei consumatori . La richiesta di GPU AI non sta rallentando e non rallenterà, poiché una delle sue parti fondamentali è la memoria ultraveloce… su cui SK Hynix sembra essere all'avanguardia.

SK hynix sta allestendo una nuova linea through silicon via (TSV) presso il suo stabilimento M15 a Cheongju, mentre il suo stabilimento M15X di nuova generazione produrrà DRAM di nuova generazione. Dovremmo aspettarci che SK Hynix realizzi in futuro nuove memorie HBM con il processo TSV, dove i TSV sono fili microscopici che vengono perforati attraverso le DRAM quando vengono assemblati in HBM.

Advertisement

Advertisement