Marvell przedstawia nową, niestandardową architekturę obliczeniową HBM w celu optymalizacji akceleratorów AI w chmurze

TL;DR: Marvell współpracuje z wiodącymi projektantami pamięci, aby ulepszyć procesory XPU, dostosowując HBM do akceleratorów AI, poprawiając wydajność, efektywność energetyczną i koszty. Strategiczne partnerstwa z firmami takimi jak Micron, Samsung i SK hynix mają na celu optymalizację infrastruktury chmurowej pod kątem sztucznej inteligencji, zapewniając operatorom chmur najwyższą wydajność i skalowalność.

Marvell właśnie zaprezentował nową, niestandardową architekturę obliczeniową HBM, dzięki której procesory XPU mogą uzyskać jeszcze wyższy poziom wydajności obliczeniowej i gęstości pamięci.

ZOBACZ GALERIĘ – 2 ZDJĘCIA

Nowa architektura obliczeniowa HBM jest dostępna u wszystkich jej niestandardowych partnerów krzemowych, a Marvell współpracuje z klientami w chmurze i wiodącymi producentami HBM, SK hynix, Samsung i Micron, w celu opracowania niestandardowych rozwiązań HBM dla procesorów XPU nowej generacji.

Popularne teraz: Światowa pozycja Elona Muska w Diablo IV ujawniona przez byłego pracownika Blizzarda

Will Chu, starszy wiceprezes i dyrektor generalny działu Custom, Compute and Storage Group w Marvell, powiedział: „Wiodący operatorzy centrów danych w chmurze skalowali się dzięki niestandardowej infrastrukturze. Udoskonalanie procesorów XPU poprzez dostosowywanie HBM pod kątem określonej wydajności, mocy i całkowitego kosztu własność to najnowszy krok w nowym paradygmacie w sposobie projektowania i dostarczania akceleratorów AI. Jesteśmy bardzo wdzięczni za współpracę z czołowymi projektantami pamięci, aby przyspieszyć tę rewolucję i pomóc operatorom centrów danych w chmurze w dalszym skalowaniu ich XPU i infrastrukturę dla ery AI”.

Raj Narasimhan, starszy wiceprezes i dyrektor generalny jednostki biznesowej Compute and Networking firmy Micron, dodał: „Większa pojemność pamięci i przepustowość pomogą operatorom chmury w efektywnym skalowaniu infrastruktury na potrzeby ery sztucznej inteligencji. Strategiczna współpraca skupiona na efektywności energetycznej, np. ten, który mamy z Marvell, będzie opierał się na wiodących w branży specyfikacjach zasilania HBM firmy Micron i zapewni hiperskalowerom solidną platformę zapewniającą możliwości i optymalną wydajność wymaganą do skalowania sztucznej inteligencji”.

Harry Yoon, wiceprezes wykonawczy Samsung Electronics i szef planowania produktów i rozwiązań na Amerykę, powiedział: „Optymalizacja HBM pod kątem konkretnych procesorów XPU i środowisk oprogramowania znacznie poprawi wydajność infrastruktury operatorów chmury i zapewni efektywne wykorzystanie energii. Rozwój sztucznej inteligencji zależy od tak ukierunkowanych wysiłków. Nie możemy się doczekać współpracy z firmą Marvell, liderem w dziedzinie innowacyjnych rozwiązań krzemowych do obliczeń niestandardowych”.

Sunny Kang, wiceprezes ds. technologii DRAM w SK hynix America, powiedział: „Współpracując z firmą Marvell, możemy pomóc naszym klientom w opracowaniu bardziej zoptymalizowanego rozwiązania pod kątem ich obciążeń i infrastruktury. Jako jeden z wiodących pionierów HBM nie możemy się doczekać kształtowania ten kolejny etap ewolucji technologii”.

Patrick Moorhead, dyrektor generalny i założyciel Moor Insights & Strategy, dodał: „Niestandardowe procesory XPU zapewniają doskonałą wydajność i wydajność w przeliczeniu na wat w porównaniu z dostępnymi na rynku rozwiązaniami ogólnego przeznaczenia do konkretnych, specyficznych dla chmury obciążeń. Marvell, już gracz na rynku niestandardowych krzemów obliczeniowych, dostarcza już dostosowane rozwiązania wiodącym firmom zajmującym się chmurą. Ich najnowsza platforma niestandardowej architektury obliczeniowej HBM zapewnia dodatkową dźwignię umożliwiającą zwiększenie całkowitego kosztu posiadania niestandardowych układów krzemowych dzięki strategicznej współpracy z wiodącymi producentami pamięci, firmą Marvell ma na celu umożliwienie operatorom chmury skalowania ich procesorów XPU i przyspieszonej infrastruktury, torując im w ten sposób drogę do umożliwienia przyszłości sztucznej inteligencji”.