Qualcomm wprowadza AI250 i AI200 z ogromną ilością pamięci dla obciążeń AI w centrach danych

Największe firmy technologiczne stawiają na sztuczną inteligencję, tworząc ogromne zapotrzebowanie na sprzęt, oprogramowanie i usługi, które stanowią podstawę tego ogromnego, rozwijającego się rynku. Dotyczy to między innymi Qualcomm, który wprowadza na rynek nowe karty akceleratorów oparte na chipach AI200 i AI250. Są to rozwiązania Qualcomm nowej generacji zoptymalizowane pod kątem wnioskowania AI dla centrów danych, które zapewniają obsługę dużych ilości pamięci.
Jest to kluczowe, ponieważ sztuczna inteligencja ma nienasycony apetyt na pamięć (i pamięć masową), a nie tylko moc NPU. Z punktu widzenia Qualcomm, AI200 i AI250 zapewniają wydajność w skali szafy i doskonałą pojemność pamięci przy wiodącym w branży całkowitym koszcie posiadania (TCO), przy zoptymalizowanej wydajności dla dużych modeli językowych (LLM) i dużych modeli multimodalnych (LMM).
Qualcomm wprowadza AI250 i AI200 z ogromną ilością pamięci dla obciążeń AI w centrach danych

W przypadku AI200 sprowadza się to do obsługi do 768 GB pamięci LPDDR na kartę, co zapewnia wyjątkową skalowalność i elastyczność wnioskowania AI. Szafa Qualcomm AI200 zawiera również sześciokątną jednostkę NPU i jako całość jest bezpośrednio chłodzona cieczą (DLC).

Prowadnica/infografika do stojaka Qualcomm AI250.

Tymczasem AI250 oferuje tę samą pojemność pamięci 768 GB na kartę, wprowadzając jednocześnie, według Qualcomm, innowacyjną architekturę pamięci opartą na przetwarzaniu w pobliżu pamięci, zapewniającą pokoleniowy skok w wydajności i wydajności w przypadku obciążeń wnioskowania AI. Według Qualcomma zapewnia ponad 10-krotnie większą efektywną przepustowość pamięci, a przy znacznie niższym zużyciu energii.

„Dzięki Qualcomm AI200 i AI250 na nowo definiujemy możliwości wnioskowania AI w skali szafy. Te innowacyjne, nowe rozwiązania w zakresie infrastruktury AI umożliwiają klientom wdrażanie generatywnej sztucznej inteligencji przy niespotykanym dotąd całkowitym koszcie posiadania, przy jednoczesnym zachowaniu elastyczności i bezpieczeństwa, jakich wymagają nowoczesne centra danych” – powiedziała Durga Malladi, wiceprezes i dyrektor generalny, Technology Planning, Edge Solutions & Data Center, Qualcomm Technologies, Inc.

„Nasz bogaty stos oprogramowania i obsługa otwartego ekosystemu ułatwiają programistom i przedsiębiorstwom integrację, zarządzanie i skalowanie już wytrenowanych modeli sztucznej inteligencji w ramach naszych zoptymalizowanych rozwiązań wnioskowania AI. Dzięki płynnej kompatybilności z wiodącymi platformami AI i wdrażaniu modeli jednym kliknięciem Qualcomm AI200 i AI250 zostały zaprojektowane z myślą o bezproblemowym wdrażaniu i szybkich innowacjach” – dodał Malladi.

Qualcomm twierdzi AI200 będzie dostępny na rynku w 2026 r., a AI250 w 2027 r. Potwierdzono, że start-up zajmujący się sztuczną inteligencją Humain jest jednym z pierwszych klientów, a celem firmy jest stworzenie w Arabii Saudyjskiej infrastruktury AI o mocy 200 MW, wyposażonej w oba rozwiązania stelażowe AI.