NVIDIA dévoile son nouveau GPU AI Blackwell Ultra B300 et la roadmap Vera Rubin

NVIDIA a dévoilé de nouvelles avancées au TGC 2025, avec des GPU comme le Blackwell Ultra B300 et le Vera Rubin. Ces unités promettent un bond en avant, notamment en intelligence artificielle, et sont conçues pour des supercalculateurs à grande échelle.

Jensen Huang, PDG de NVIDIA, a présenté une gamme optimisée pour l’IA, comprenant le Blackwell Ultra B300, le Vera Rubin et le Rubin Ultra. Ces GPU améliorent les performances en inférence et entraînement.

Le Blackwell Ultra B300, attendu pour fin 2025, augmente la mémoire HBM3e de 192 Go à 288 Go, avec une hausse de 50 % des performances FP4 tensor dense par rapport au Blackwell GB200. Dans une configuration NVL72, il atteint 1,1 exaflops en inférence FP4 dense, un bond significatif face au Blackwell B200 actuel.

NVIDIA introduit aussi des solutions de serveurs : B300 NVL16, station DGX GB300 et rack GB300 NV72L. Huit racks NV72L forment un Blackwell Ultra DGX SuperPOD, combinant 288 CPU Grace, 576 GPU Blackwell Ultra, 300 To de HBM3e et 11,5 exaflops FP4. Ces unités peuvent être interconnectées pour créer des supercalculateurs, que NVIDIA désigne comme « usines d’IA ».

Vera Rubin et l’évolution de l’IA

Les GPU Vera Rubin, attendus en 2026, apporteront des avancées en entraînement et inférence IA. Ce modèle associe plusieurs teraoctets de mémoire à un CPU NVIDIA personnalisé, le Vera, comprenant 88 cœurs Arm et 176 threads.

Avec deux puces sur un seul die, il atteint 50 pétaflops FP4 par puce et 3,6 exaflops en NVL144. NVIDIA prévoit d’intégrer cette technologie aux futurs supercalculateurs IA.

À lire :  NVIDIA pourrait abandonner son mantra "Un GPU pour tout" au GTC 2026 : attentes à venir

YouTube video

Rubin Ultra et la puissance extrême

Le Rubin Ultra, prévu pour 2027, utilisera un rack NVL576 et un GPU à quatre dies, atteignant 100 pétaflops FP4 par puce. Cette configuration pourra fournir 15 exaflops d’inférence FP4 et 5 exaflops d’entraînement FP8.

Chaque GPU Rubin Ultra inclura 1 To de HBM4e, avec un total de 365 To de mémoire rapide dans tout le rack, une avancée significative par rapport à la Vera Rubin.

L’architecture Feynman et l’avenir

NVIDIA a également annoncé une architecture GPU de nouvelle génération, « Feynman », prévue pour 2028 aux côtés du CPU Vera. Peu d’informations ont été révélées, mais cette génération devrait encore repousser les limites du calcul IA.

Lors de son discours, Huang a insisté sur la transformation des centres de données en « usines d’IA », produisant des jetons traités par des modèles d’intelligence artificielle. Il a aussi évoqué l’IA physique, avec des robots humanoïdes utilisant les plateformes NVIDIA pour apprendre en simulation avant d’être déployés dans le monde réel.

Avec cette roadmap, NVIDIA mise sur des performances accrues pour répondre aux besoins croissants en IA, une stratégie essentielle après les récentes fluctuations du marché des semi-conducteurs.

Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Comment supprimer Coil Whine carte graphique

Vous pourriez aussi aimer