Samsung przesuwa granice pamięci: 36 GB pamięci DRAM HBM3E przygotowanej do przyspieszenia sztucznej inteligencji

Porozmawiaj o chwili „potrzymaj mi piwo”. Jeszcze wczoraj firma Micron biła się w piersi z powodu wprowadzenia do masowej produkcji swojego 24-gigabajtowego, 8-stosowego rozwiązania High Bandwidth Memory 3E (HBM3E) o zawrotnej przepustowości przekraczającej 1,2 terabajta na sekundę (TB/s). Dzień później Samsung zachwala rozwój pierwszego w branży rozwiązania HBM3E DRAM z 12 stosami, o nazwie kodowej Shinebolt.
Rozwiązanie Shinebolt firmy Samsung to obecnie najbardziej pojemny produkt HBM wynoszący 36 GB. Producent chipów rości sobie także prawo do rekordowo wysokiej przepustowości wynoszącej 1280 gigabajtów na sekundę (GB/s), czyli prawdopodobnie nieco więcej niż rozwiązanie firmy Micron, które osiąga ponad 1,2 TB/s. Firma Micron nie podała konkretnej liczby, ale uważamy, że Samsung jest odrobinę wyższy, ponieważ oferuje przepustowość na pin wynoszącą 9,8 gigabitów na sekundę (Gb/s) w porównaniu z 9,2 Gb/s.

W każdym razie najnowsze rozwiązanie HBM3E firmy Samsung oferuje poprawę wydajności i przepustowości o ponad 50% w porównaniu do swojego poprzednika o nazwie kodowej Icebolt, który jest rozwiązaniem HBM3 z 8 stosami.

„Dostawcy usług AI w branży coraz częściej wymagają HBM o większej pojemności, a nasz nowy produkt HBM3E 12H został zaprojektowany, aby odpowiedzieć na tę potrzebę” – powiedział Yongcheol Bae, wiceprezes wykonawczy ds. planowania produktów pamięci w Samsung Electronics. „To nowe rozwiązanie pamięci stanowi część naszego dążenia do opracowania podstawowych technologii dla HBM o wysokim stosie i zapewnienia wiodącej pozycji technologicznej na rynku HBM o dużej pojemności w erze sztucznej inteligencji”.

Advertisement

Jung-Bae Lee firmy Samsung

Według firmy Samsung zastosowanie zaawansowanej, nieprzewodzącej folii do kompresji termicznej (TC NCF) umożliwiło jej zapakowanie 12-warstwowego rozwiązania pamięci o tę samą specyfikację wysokości, co pamięć 8-warstwowa. Z biegiem czasu Samsung twierdzi, że jego specjalna folia przyniesie więcej korzyści, a mianowicie ograniczenie wypaczenia wiórów w przypadku większych stosów na cieńszych matrycach.

„Samsung w dalszym ciągu zmniejszał grubość materiału NCF i osiągnął najmniejszą w branży szczelinę między chipami wynoszącą siedem mikrometrów (µm), eliminując jednocześnie puste przestrzenie między warstwami. Wysiłki te skutkują zwiększoną gęstością pionową o ponad 20% w porównaniu do HBM3 8H produktu” – mówi Samsung.

Postępy w HBM mają również kluczowe znaczenie dla zastosowań wymagających dużej przepustowości w dziedzinie sztucznej inteligencji (AI). W tym celu Samsung twierdzi, że 12H HBM3E może zwiększyć średnią prędkość uczenia AI o 34% w porównaniu z 8H HBM3, umożliwiając jednocześnie ponad 11,5-krotność jednoczesnej liczby użytkowników korzystających z usług wnioskowania.

Samsung twierdzi, że się zaczęło pobieranie próbek 12H HBM3E klientom i planuje masową produkcję w nadchodzących miesiącach. W międzyczasie Micron pobiera również próbki 36 GB 12H HBM3E dla rozwiązań partnerskich, które zadebiutują w marcu, więc nie ma wyraźnej przewagi między dwoma producentami pamięci.

Advertisement