AMD Instinct MI300X est une option « bien supérieure » au GPU NVIDIA Hopper H100 AI

Consultez notre autre site internet Juexparc.fr pour plus d’actualités et d’informations sur les jeux

La startup d'IA TensorWave est l'une des premières à disposer d'une configuration déployée publiquement et alimentée par les accélérateurs d'IA AMD Instinct MI300X, et son PDG affirme qu'ils constituent une bien meilleure option que le GPU Hopper H100 AI dominant de NVIDIA.

TensorWave a commencé à accumuler des systèmes d'IA alimentés par le tout nouveau accélérateur d'IA Instinct MI300X d'AMD, dont il prévoit de louer les puces MI300X à une fraction du coût du GPU Hopper H100 AI de NVIDIA. TensorWave prévoit de disposer de 20 000 nouveaux accélérateurs d'IA Instinct MI300X d'AMD avant la fin de l'année dans deux installations, et prévoit de mettre en ligne des systèmes refroidis par liquide en 2025.

Advertisement

Jeff Tatarchuk a déclaré que le nouveau GPU Instinct MI300X AI d'AMD dans « seulement des spécifications brutes, le MI300X domine le H100 », et il n'a pas tort. Mais il s'agit du H100 d'origine avec des options HBM3 de 40 Go et 80 Go, tandis qu'un H200 renforcé avec 141 Go de mémoire HBM3e ultra-rapide beaucoup plus grande avec jusqu'à 4,8 To/s de bande passante mémoire, mais une fois que le Blackwell B200 est là, NVIDIA possède le Jeu GPU AI avec 192 To de HBM3e à une bande passante mémoire de 8 To/s pour le GPU AI B200.

  • AMD Instinct MI300X : 192 Go HBM3e à jusqu'à 5,3 To/s
  • NVIDIA H100 : 80 Go HBM3 à jusqu'à 3,35 To/sec
  • NVIDIA H200 : 141 Go de HBM3e jusqu'à 4,8 To/sec
  • NVIDIA B200 : 192 Go de HBM3e jusqu'à 8 To/sec

AMD possède jusqu'à présent le plus de VRAM sur un GPU AI, NVIDIA étant à la traîne avec un H100 et 80 Go à ses limites – à moins que vous ne soyez en Chine, avec accès aux modèles H100 de 96 Go – et même au prochain H200 avec 141 Go de HBM3e – – ouais, c'est du HBM3e et il a plus de bande passante mémoire, mais ce n'est pas autant et pas aussi rapide que l'Instinct MI300X d'AMD.

Mais il ne s’agit pas seulement de matériel pur et de VRAM pour les charges de travail d’IA, les accélérateurs d’IA ou les GPU d’IA doivent offrir les mêmes performances que les GPU H100 AI dominants de NVIDIA. Tatarchuk dit qu'il y a beaucoup d'enthousiasme autour des nouveaux accélérateurs d'IA Instinct MI300X d'AMD qui constituent une excellente alternative à NVIDIA, mais les clients ne sont pas sûrs d'obtenir les mêmes performances.

Il a dit: « il y a aussi beaucoup de « nous ne sommes pas sûrs à 100 % si cela va être aussi génial que ce à quoi nous sommes actuellement habitués sur NVIDIA »,' » ce qui est vrai.

Advertisement

Advertisement