
W przypadku AI200 sprowadza się to do obsługi do 768 GB pamięci LPDDR na kartę, co zapewnia wyjątkową skalowalność i elastyczność wnioskowania AI. Szafa Qualcomm AI200 zawiera również sześciokątną jednostkę NPU i jako całość jest bezpośrednio chłodzona cieczą (DLC).

Tymczasem AI250 oferuje tę samą pojemność pamięci 768 GB na kartę, wprowadzając jednocześnie, według Qualcomm, innowacyjną architekturę pamięci opartą na przetwarzaniu w pobliżu pamięci, zapewniającą pokoleniowy skok w wydajności i wydajności w przypadku obciążeń wnioskowania AI. Według Qualcomma zapewnia ponad 10-krotnie większą efektywną przepustowość pamięci, a przy znacznie niższym zużyciu energii.
„Dzięki Qualcomm AI200 i AI250 na nowo definiujemy możliwości wnioskowania AI w skali szafy. Te innowacyjne, nowe rozwiązania w zakresie infrastruktury AI umożliwiają klientom wdrażanie generatywnej sztucznej inteligencji przy niespotykanym dotąd całkowitym koszcie posiadania, przy jednoczesnym zachowaniu elastyczności i bezpieczeństwa, jakich wymagają nowoczesne centra danych” – powiedziała Durga Malladi, wiceprezes i dyrektor generalny, Technology Planning, Edge Solutions & Data Center, Qualcomm Technologies, Inc.
„Nasz bogaty stos oprogramowania i obsługa otwartego ekosystemu ułatwiają programistom i przedsiębiorstwom integrację, zarządzanie i skalowanie już wytrenowanych modeli sztucznej inteligencji w ramach naszych zoptymalizowanych rozwiązań wnioskowania AI. Dzięki płynnej kompatybilności z wiodącymi platformami AI i wdrażaniu modeli jednym kliknięciem Qualcomm AI200 i AI250 zostały zaprojektowane z myślą o bezproblemowym wdrażaniu i szybkich innowacjach” – dodał Malladi.