NVIDIA réaffirme que les prochains GPU Hopper serons lancés en 2024, un autre grand pas en avant pour l’informatique haute performance et l’IA

NVIDIA confirme que l’entreprise lancera sa prochaine carte graphique Hopper-Next en 2024, offrant ainsi un autre bond en avant considérable en matière de performances.

La carte graphique Hopper-Next de NVIDIA est en bonne voie pour être lancée en 2024, pour un nouveau saut en avant dans le segment des HPC et de l’IA

NVIDIA n’a pas confirmé de nouveaux détails pour Hopper-Next, mais il est connu comme le successeur de la carte graphique Hopper actuelle et utilisera très probablement une dénomination qui sera différente de « Hopper-Next ». Il est très probable que cette puce sera étiquetée « Blackwell », qui a été divulguée l’année dernière, et nous pouvons également nous attendre à des bonds similaires en matière de performances comme nous l’avons vu avec Hopper par rapport à Ampere.

NVIDIA avait également réitéré précédemment que l’entreprise s’engageait pleinement à lancer une nouvelle architecture GPGPU majeure tous les 2 ans et que Hopper avait été lancé cette année. Cela répondait aux nouveaux développements potentiels en 2023 et confirme que l’architecture GPU Blackwell sera lancée en 2024 (puisque nous savons que c’est l’architecture qui succédera à Hopper), ce qui était le calendrier prévu en fonction de la cadence historique de NVIDIA de toute façon.

NVIDIA Kepler GK110 GPU Is Equivalent To A Single GPC on Hopper H100 GPU, 4th Gen Tensor Cores Up To 2x Faster 1

La fuite précédente a confirmé au moins deux GPU Blackwell, le GB100 et GB102. Il est très probable que ces deux GPU conservent une conception monolithique et pourraient utiliser un nouveau nœud de processus de 3 nm.

NVIDIA Hopper est actuellement la carte graphique la plus rapide au monde sur un nœud de processus de 4 nm et la première au monde avec une mémoire HBM3. Elle dispose d’une quantité phénoménale de puissance de calcul AI et est conçue pour les modèles générateurs nouvelle génération tels que ChatGPT, etc. Les cartes graphiques Hopper-Next de NVIDIA viseront également un segment similaire, mais avec des performances encore plus élevées et une plus grande importance accordée aux moteurs d’IA spécialisés dans le moteur GPU « Transformer ».

À lire :  TSMC s'oriente vers une « expansion agressive » des installations de packaging CoWoS pour les puces IA d'AMD et NVIDIA

Blackwell apportera une amélioration générationnelle significative par rapport à Hopper (comme cela a toujours été le cas). Nous pouvons nous attendre à plus d’informations sur la prochaine carte graphique Hopper-Next de NVIDIA lors de la GTC 2024, qui est encore à un an, mais il est bon de voir que NVIDIA s’engage en faveur de sa cadence de 2 ans, et nous avons hâte de voir la prochaine puce HPC en action.

 

NVIDIA GH200 GPU fait ses débuts sur les superpuces Grace Hopper, de nouveaux serveurs HGX également révélés

Le GPU GH200 de NVIDIA vient d’être révélé pour les superpuces Grace Hopper et alimentera les systèmes HGX.

NVIDIA dispose d’un GPU Hopper encore plus puissant pour alimenter les superpuces Grace Hopper, et il s’appelle le GH200

Communiqué de presse : NVIDIA a annoncé aujourd’hui que le superprocesseur Grace Hopper GH200 de NVIDIA est en pleine production et est prêt à alimenter des systèmes en ligne dans le monde entier pour exécuter des charges de travail complexes d’IA et de HPC.

Nvidia Ai Grace Hopper Gh200 Gpu Superchips

Les systèmes alimentés par le GH200 rejoignent plus de 400 configurations de systèmes alimentées par différentes combinaisons des dernières architectures CPU, GPU et DPU de NVIDIA, y compris Grace, Hopper, Ada Lovelace et BlueField, créées pour répondre à la demande croissante d’IA générative.

Lors du COMPUTEX, le fondateur et PDG de NVIDIA, Jensen Huang, a dévoilé de nouveaux systèmes, partenaires et détails supplémentaires concernant le superprocesseur Grace Hopper GH200, qui rassemble le CPU Grace basé sur Arm et les architectures GPU Hopper en utilisant la technologie d’interconnexion NVLink-C2C. Cela offre une bande passante totale pouvant atteindre 900 Go/s, soit une bande passante 7 fois plus élevée que les voies PCIe Gen5 standard que l’on trouve dans les systèmes accélérés traditionnels, offrant une capacité de calcul incroyable pour répondre aux applications d’IA générative et de HPC les plus exigeantes.

Nvidia Ai Grace Hopper Gh200 Gpu Superchips Performance

Des hyper-évolutifs mondiaux et des centres de supercalcul en Europe et aux États-Unis font partie des clients qui auront accès aux systèmes alimentés par le GH200.

Full-Stack sur des systèmes accélérés

La prochaine gamme de systèmes accélérés par les architectures Grace, Hopper et Ada Lovelace offre un large soutien à la pile logicielle NVIDIA, qui comprend l’IA NVIDIA, la plateforme Omniverse et la technologie RTX.

À lire :  Les GPU NVIDIA GeForce RTX 4000 offrent plus de 500 FPS dans Counter-Strike 2 et réduisent les latences de 35% avec Reflex

Nvidia Ai Grace Hopper Gh200 Gpu Superchips Full Stack

NVIDIA AI Enterprise, la couche logicielle de la plateforme IA de NVIDIA, offre plus de 100 frameworks, modèles pré-entraînés et outils de développement pour rationaliser le développement et le déploiement de l’IA de production, y compris l’IA générative, la vision par ordinateur et l’IA vocale.

La plateforme de développement Omniverse pour la construction et l’exploitation d’applications de métavers permet aux individus et aux équipes de travailler avec plusieurs suites logicielles et de collaborer en temps réel dans un environnement partagé. La plateforme est basée sur le framework Universal Scene Description, un langage 3D ouvert et extensible pour les mondes virtuels.

L’ordinateur supercalculateur DGX GH200 offre une puissance de calcul massive de 1 exaflop

NVIDIA a annoncé aujourd’hui une nouvelle classe de superordinateur d’IA à grande mémoire, un superordinateur NVIDIA DGX alimenté par les superpuces Grace Hopper GH200 de NVIDIA et le système de commutation NVIDIA NVLink, créé pour permettre le développement de modèles géants de prochaine génération pour les applications de langage IA génératif, les systèmes de recommandation et les charges de travail d’analyse de données.

L’espace mémoire partagé massif du NVIDIA DGX GH200 utilise la technologie d’interconnexion NVLink avec le système de commutation NVLink pour combiner 256 superpuces GH200, leur permettant de fonctionner comme un seul GPU. Cela offre une performance de 1 exaflop et 144 téraoctets de mémoire partagée, soit près de 500 fois plus de mémoire que la génération précédente du NVIDIA DGX A100, introduite en 2020.

Nvidia Ai Grace Hopper Gh200 Gpu Superchips Optical Fiber

La plateforme NVIDIA RTX fusionne le ray tracing, l’apprentissage en profondeur et la rasterisation pour transformer fondamentalement le processus créatif des créateurs de contenu et des développeurs avec prise en charge des outils et des API de pointe de l’industrie. Les applications construites sur la plateforme RTX apportent la puissance du rendu photoréaliste en temps réel et des graphiques améliorés par l’IA, de la vidéo et du traitement d’images pour permettre à des millions de designers et d’artistes de créer leurs meilleures œuvres.

Disponibilité

Les systèmes avec les superpuces Grace Hopper GH200 de NVIDIA devraient être disponibles plus tard cette année. Les superordinateurs DGX GH200 devraient être disponibles d’ici la fin de l’année.

Retrouvez, la vidéo d’un de nos confrères hardware de la semaine :

YouTube video

Sources : VideoCardz, WCCF Tech

Ci-dessous, nos guides d'optimisations dont : Optimiser Windows 11 pour les jeux - Optimiser Windows 10 pour les jeuxComment réduire latenceStock PS5

Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Ps5 Stock Playstation 5 Bot

Vous pourriez aussi aimer