SK hynix spodziewa się, że w 2024 r. przychody HBM z chipów pamięci wyniosą ponad 10 miliardów dolarów

SK hynix miało absolutnie znakomite ostatnie 12 miesięcy na stale rosnącej fali sztucznej inteligencji, a południowokoreański gigant pamięci spodziewa się, że do końca 2024 r. z samego HBM przychody wyniosą ponad 10 miliardów dolarów.

Otwórz galerię 2

ZOBACZ GALERIĘ – 2 ZDJĘCIA

Advertisement

Wiadomość pochodzi z południowokoreańskiego sklepu TheElec, który podsumowuje, że SK hynix wyprzedał całą podaż pamięci HBM na rok 2024 i jest już bliski wyczerpania zapasów pamięci HBM na rok 2025. Obecny procesor graficzny NVIDIA H100 wykorzystuje HBM3, podczas gdy nowe procesory graficzne AI H200 i B200 nowej generacji wykorzystują pamięć HBM3E dostarczoną przez firmę SK hynix.

SK hynix wyprzedza swoich konkurentów HBM w firmach Samsung i Micron, planując dostarczyć próbki nowego 12-stosowego HBM3E w tym miesiącu, a masowa produkcja nowych układów pamięci HBM spodziewana jest w trzecim kwartale 2024 r., według dyrektora generalnego SK hynix, Kwaka Noh-Jung na konferencji prasowej w czwartek.

Istnieją obawy, że na rynek może trafić nadpodaż HBM, ale dyrektor generalny SK hynix szybko powstrzymał ten tok myślenia, powtarzając, że HBM różni się od pamięci ogólnego przeznaczenia, takich jak pamięci GDDR i DDR, które opierają się na zapotrzebowaniu konsumentów . Zapotrzebowanie na procesory graficzne AI nie maleje i nie będzie zwalniać, ponieważ jedną z kluczowych jego części jest ultraszybka pamięć… w której akurat SK hynix przoduje.

SK hynix uruchamia nową linię przelotową (TSV) w swojej fabryce M15 w Cheongju, podczas gdy jej fabryka M15X nowej generacji będzie wytwarzać pamięć DRAM nowej generacji. Powinniśmy się spodziewać, że SK hynix wyprodukuje w przyszłości nową pamięć HBM w procesie TSV, przy czym TSV będą mikroskopijnymi drutami przebijanymi przez pamięci DRAM podczas ich montażu w pamięci HBM.

Advertisement

Advertisement