CoreWeave démontre 6X de performance GPU avec NVIDIA GB300 NVL72 contre H100 dans DeepSeek R1

Le dernier superchip AI de NVIDIA, le Blackwell, surpasse facilement le précédent GPU H100 en réduisant le parallélisme tensoriel, offrant ainsi un débit nettement plus élevé.

NVIDIA GB300 : Mémoire et Bande Passante Supérieures, Gains de Débit Significatifs Face au H100

Les superchips AI de NVIDIA, équipés par Blackwell, présentent des avantages considérables par rapport aux précédents GPU comme le H100. Le GB300 est déjà l’offre la plus performante de NVIDIA, fournissant des améliorations générationnelles en calcul ainsi qu’une capacité et une bande passante mémoire bien plus élevées, essentielles pour les charges de travail AI lourdes. Cela est confirmé par le dernier banc d’essai réalisé par CoreWeave, qui a constaté que la dernière plateforme de NVIDIA peut offrir un débit nettement plus élevé en réduisant le parallélisme tensoriel.

CoreWeave a testé les deux plateformes avec le modèle de raisonnement DeepSeek R1, qui est assez complexe. La différence majeure réside dans les configurations très distinctes. D’une part, un cluster de 16x NVIDIA H100 était nécessaire pour exécuter le modèle, tandis que, d’autre part, seulement 4x GB300 étaient requises sur l’infrastructure NVIDIA GB300 NVL72. Malgré l’utilisation d’un quart des GPU, le système basé sur le GB300 a fourni un débit brut 6 fois supérieur par GPU, démontrant l’énorme avantage des GPU dans les charges de travail AI complexes comparé au H100.

Comparaison de débit : 4x GB300 surpassent 16x H100 en débit par 6,5x tokens/s.

Il est évident que le GB300 bénéficie d’un grand avantage sur le système H100, car il permet d’exécuter le même modèle avec seulement 4 voies de parallélisme tensoriel. Grâce à une réduction des divisions, la communication inter-GPU est améliorée, et la capacité mémoire ainsi que la bande passante plus élevées jouent également un rôle crucial dans l’augmentation drastique de performances. Avec une telle avancée architecturale, la plateforme GB300 NVL72 s’annonce solide, grâce aux connexions haute bande passante NVLink et NVSwitch, permettant aux GPU d’échanger des données à des vitesses incroyables.

À lire :  NVIDIA Feynman GPU avec empilage 3D, HBM sur mesure et prochain CPU Rosa

Pour les clients, cela indique une génération de tokens plus rapide et une latence réduite tout en favorisant une scalabilité plus efficace des charges de travail AI d’entreprise. CoreWeave met en avant les caractéristiques et fonctionnalités extraordinaires du système NVIDIA GB300 NVL72, qui offre une capacité mémoire énorme de 37 To (le GB300 NVL72 supporte jusqu’à 40 To) pour exécuter de grands modèles AI complexes, ainsi que des interconnexions ultra-rapides qui fournissent 130 To/s de bande passante mémoire.

Spécifications NVIDIA GB300 NVL72 : GPU, CPU, bande passante mémoire, performances des cœurs tensoriels.

En somme, le NVIDIA GB300 ne se limite pas à des TFLOPs bruts, mais met également l’accent sur l’efficacité. La réduction du parallélisme tensoriel permet au GB300 de minimiser la surcharge de communication entre les GPU, ce qui mène souvent à un bottleneck (goulots d’étranglement) pour l’entraînement et l’inférence AI à grande échelle. Avec le GB300, les entreprises peuvent désormais atteindre des débits bien plus élevés même avec moins de GPU, ce qui réduit non seulement les coûts globaux mais les aide aussi à évoluer efficacement.

Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Comment supprimer Coil Whine carte graphique

Vous pourriez aussi aimer