Micron rości sobie prawo do modułów SOCAMM2 o największej pojemności na świecie dzięki swojemu nowemu produktowi o pojemności 192 GB, którego próbki zaczął udostępniać klientom. Według Microna „bezprecedensowa innowacja i rozwój sztucznej inteligencji” napędza potrzebę zwiększania ilości pamięci w centrum danych, a jego energooszczędny moduł SOCAMM2 o pojemności 192 GB jest zoptymalizowany pod kątem dużych klastrów centrów danych.
„W miarę jak obciążenia AI stają się coraz bardziej złożone i wymagające, serwery w centrach danych muszą osiągnąć zwiększoną wydajność, dostarczając więcej tokenów na każdy wat mocy” – powiedział Raj Narasimhan, starszy wiceprezes i dyrektor generalny jednostki biznesowej Cloud Memory firmy Micron. „Udowodniona wiodąca pozycja firmy Micron w dziedzinie pamięci DRAM o niskim poborze mocy gwarantuje, że nasze moduły SOCAMM2 zapewniają przepustowość danych, efektywność energetyczną, pojemność i jakość na poziomie centrum danych niezbędną do zasilania serwerów centrów danych AI nowej generacji”.
Choć na pierwszy rzut oka może się to wydawać niczym wielkim, Micron zwraca uwagę, że oszczędności energii stają się „całkiem znaczące” w skali, ponieważ instalacje AI w całej szafie wykorzystują obecnie ponad 40 terabajtów (TB) pamięci głównej DRAM podłączonej do procesora o niższym poborze mocy.
„SOCAMM2 poprawia efektywność energetyczną o ponad dwie trzecie w porównaniu z równoważnymi modułami RDIMM, a jednocześnie mieści swoją wydajność w module o jednej trzeciej wielkości, optymalizując powierzchnię centrum danych oraz maksymalizując pojemność i przepustowość. Modułowa konstrukcja SOCAMM i innowacyjna technologia układania w stosy poprawiają łatwość serwisowania i pomagają projektować serwery chłodzone cieczą” – mówi Micron.