W każdym razie najnowsze rozwiązanie HBM3E firmy Samsung oferuje poprawę wydajności i przepustowości o ponad 50% w porównaniu do swojego poprzednika o nazwie kodowej Icebolt, który jest rozwiązaniem HBM3 z 8 stosami.
„Dostawcy usług AI w branży coraz częściej wymagają HBM o większej pojemności, a nasz nowy produkt HBM3E 12H został zaprojektowany, aby odpowiedzieć na tę potrzebę” – powiedział Yongcheol Bae, wiceprezes wykonawczy ds. planowania produktów pamięci w Samsung Electronics. „To nowe rozwiązanie pamięci stanowi część naszego dążenia do opracowania podstawowych technologii dla HBM o wysokim stosie i zapewnienia wiodącej pozycji technologicznej na rynku HBM o dużej pojemności w erze sztucznej inteligencji”.
Advertisement
Według firmy Samsung zastosowanie zaawansowanej, nieprzewodzącej folii do kompresji termicznej (TC NCF) umożliwiło jej zapakowanie 12-warstwowego rozwiązania pamięci o tę samą specyfikację wysokości, co pamięć 8-warstwowa. Z biegiem czasu Samsung twierdzi, że jego specjalna folia przyniesie więcej korzyści, a mianowicie ograniczenie wypaczenia wiórów w przypadku większych stosów na cieńszych matrycach.
„Samsung w dalszym ciągu zmniejszał grubość materiału NCF i osiągnął najmniejszą w branży szczelinę między chipami wynoszącą siedem mikrometrów (µm), eliminując jednocześnie puste przestrzenie między warstwami. Wysiłki te skutkują zwiększoną gęstością pionową o ponad 20% w porównaniu do HBM3 8H produktu” – mówi Samsung.
Postępy w HBM mają również kluczowe znaczenie dla zastosowań wymagających dużej przepustowości w dziedzinie sztucznej inteligencji (AI). W tym celu Samsung twierdzi, że 12H HBM3E może zwiększyć średnią prędkość uczenia AI o 34% w porównaniu z 8H HBM3, umożliwiając jednocześnie ponad 11,5-krotność jednoczesnej liczby użytkowników korzystających z usług wnioskowania.