SK hynix zrealizuje w 2025 r. ogromne zamówienie na pamięć HBM dla firmy Broadcom, którą wykorzysta w swoich nowych chipach AI, które produkuje dla dostawców usług w chmurze (CSP), w tym Google, Meta i spółki macierzystej TikTok ByteDance.
ZOBACZ GALERIĘ – 2 ZDJĘCIA
SK hynix ma już firmę NVIDIA jako głównego klienta swoich wiodących w branży układów pamięci HBM, ale źródła TheElec podają, że południowokoreański gigant pamięci dostarczy nowy moduł HBM firmie Broadcom w drugiej połowie 2025 r., a amerykański producent chipów będzie korzystał z pamięci AI chipy w nowych chipach AI dla Google, Meta i ByteDance.
Dzięki tej umowie SK hynix zwiększy swoje zdolności produkcyjne HBM do 160 000–170 000 płytek w 2025 r., w porównaniu z poprzednim celem wynoszącym 140 000–150 000. SK hynix dostarcza większość produkowanych przez siebie układów pamięci HBM firmie NVIDIA do użytku w H200, GB200, B200, GB200 i innych układach AI oraz serwerach AI, ale teraz Broadcom chce trochę tego pysznego ciasta pamięci HBM dla swoich klientów CSP .
TheElec twierdzi, że SK hynix może opóźnić instalację swojego nowego sprzętu 1c DRAM, aby zaradzić nagłemu wzrostowi popytu ze strony Broadcom. Główni dostawcy usług w chmurze (CSP) wypychają własne infrastruktury sztucznej inteligencji, co zwiększa zapotrzebowanie na układy ASIC i HBM specyficzne dla sztucznej inteligencji. Google buduje HBM3E w swoim Trillium TPU, a Amazon AWS używa HBM w swoim wewnętrznym chipsecie Trainium do celów uczenia się AI.