Produkcja HBM3E o przepustowości 1,2 TB/s przez firmę Micron nabiera wysokich obrotów w miarę gwałtownego wzrostu zapotrzebowania na sztuczną inteligencję

Jeśli nie zauważyłeś, era sztucznej inteligencji (AI) nadchodzi w zawrotnym tempie, w dużej mierze dzięki wysokiej klasy rozwiązaniom graficznym i akceleratorom firmy NVIDIA — jej działalność w zakresie centrów danych wyprzedziła dział gier czterokrotnie w zeszłym roku kwartał (pod względem przychodów). Do tego oczywiście potrzeba wioski i szybkich rozwiązań pamięciowych. Enter Micron, który ogłosił dzisiaj, że rozpoczął masową produkcję rozwiązania High Bandwidth Memory 3E (HBM3E) „w celu przyspieszenia rozwoju sztucznej inteligencji”.
Jest to między innymi dlatego, że karta Micron 24 GB 8H HBM3E będzie częścią procesorów graficznych NVIDIA H200 Tensor Core, których premiera planowana jest na drugi kwartał tego roku. Ponadto im więcej graczy, tym weselszy rywal, firma SK hynix, ogłosiła niedawno, że wyczerpał się już przydział HBM na cały rok 2024.

„Micron dostarcza trzy elementy w postaci kamienia milowego HBM3E: wiodąca pozycja w zakresie czasu wprowadzenia produktu na rynek, najlepsza w swojej klasie wydajność w branży i zróżnicowany profil efektywności energetycznej” – powiedział Sumit Sadana, wiceprezes wykonawczy i dyrektor ds. biznesowych w Micron Technology. „Obciążenia sztucznej inteligencji w dużym stopniu zależą od przepustowości i pojemności pamięci, a Micron ma bardzo dobrą pozycję, aby wspierać znaczący rozwój sztucznej inteligencji w przyszłości dzięki naszemu wiodącemu w branży planowi działania HBM3E i HBM4, a także naszemu pełnemu portfolio rozwiązań DRAM i NAND dla aplikacji AI .”

Wydajność, o której wspomina Sadana, to zawrotna prędkość wynosząca 9,2 gigabitów na sekundę (GB/s), co daje przepustowość pamięci przekraczającą 1,2 terabajta na sekundę (TB/s). Jest także energooszczędna — firma Micron twierdzi, że pamięć HBM3E zużywa o 30% mniej energii niż produkty konkurencji.

Advertisement

Nie oznacza to zbyt wiele dla konsumentów, przynajmniej nie bezpośrednio, AMD flirtowało z HBM w swoich procesorach graficznych do gier (pamiętacie Vegę?), ale stosunek kosztów do wydajności po prostu nie jest konkurencyjny w porównaniu z GDDR. Chociaż surowa przepustowość nie jest nieistotna, w świecie konsumenckim priorytetem jest ilość. Nie chcemy też wyobrażać sobie, ile więcej kosztowałyby karty graficzne do gier, gdyby AMD, Intel i NVIDIA zdecydowały się na hurtowe przejście na HBM zamiast na GDDR.

Micron twierdzi, że HBM3E oferuje obecnie 24 GB pojemności, ale jest w fazie próbkowania 36 GB 12-High HBM3E dla rozwiązań partnerskich, które zadebiutują w marcu.

Advertisement