Dans une feuille de route des puces d'IA pour centres de données récemment partagée et publiée sur X, nous avons un bon aperçu de ce que les entreprises ont déjà sur le marché et de ce qui se trouve dans le pipeline des puces d'IA jusqu'en 2027. Découvrez-le :
VOIR LA GALERIE – 2 IMAGES
La liste comprend les fabricants de puces NVIDIA, AMD, Intel, Google, Amazon, Microsoft, Meta, ByteDance et Huawei. Vous pouvez voir que la liste des GPU NVIDIA AI comprend l'Ampere A100, les Hopper H100, GH200, H200 AI, et les Blackwell B200A, B200 Ultra, GB200 Ultra et GB200A. Mais après cela – et nous savons tous que cela va arriver – il y a Rubin et Rubin Ultra, tous deux équipés de mémoire HBM4 de nouvelle génération.
Nous avons également la gamme croissante d'accélérateurs d'IA de la série Instinct MI d'AMD, avec le MI250X jusqu'au nouveau MI350 et le prochain MI400 répertoriés pour 2026 et au-delà.
Google est en troisième position avec sa série de processeurs TPU, avec le TPU v5e jusqu'au TPU v7p de nouvelle génération qui devrait arriver en 2025. Intel a ses Gaudi 2 et Gaudi 3 sur la liste, et son processeur Falcon Shores AI de nouvelle génération n'est pas attendu avant le second semestre 2025.
Nous nous attendons à ce que les GPU IA Rubin R100 de nouvelle génération de NVIDIA utilisent une conception de réticule 4x (par rapport à Blackwell avec une conception de réticule 3,3x) et soient fabriqués sur la technologie de conditionnement CoWoS-L de pointe de TSMC sur le nouveau nœud de processus N3. TSMC a récemment parlé de puces de taille de réticule jusqu'à 5,5x arrivant en 2026, avec un substrat de 100 x 100 mm qui gérerait 12 sites HBM, contre 8 sites HBM sur les packages 80 x 80 mm de la génération actuelle.
TSMC va passer à une nouvelle conception SoIC qui permettra une taille de réticule supérieure à 8x sur une configuration de boîtier plus grande de 120 x 120 mm, mais comme le souligne Wccftech, ces éléments sont toujours en cours de planification, nous pouvons donc probablement nous attendre à une taille de réticule d'environ 4x pour les GPU Rubin R100 AI.