NVIDIA consacre 20% de temps au hardware et 80% aux logiciels lors du déploiement des systèmes DGX H100
Aujourd’hui, NVIDIA a révélé que ses premiers systèmes DGX H100 sont en cours d’expédition vers des clients internationaux pour soutenir les projets d’IA.
Les systèmes NVIDIA DGX H100 propulsés par GPU sont désormais expédiés mondialement pour soutenir les projets d’IA
Présenté lors de la GTX 2022, le NVIDIA Hopper H100 a été dévoilé comme étant la première et la plus rapide puce de centre de données 4 nm au monde, offrant jusqu’à 4000 TFLOPs de puissance de calcul pour l’IA. Équipée d’une architecture GPU innovante avec 80 milliards de transistors, d’une mémoire HBM3 ultrarapide et de capacités NVLINK, cette puce a été spécialement conçue pour diverses applications, telles que l’intelligence artificielle (IA), l’apprentissage automatique (ML), les réseaux de neurones profonds (DNN) et diverses tâches de calcul axées sur le HPC.
Dorénavant, les premiers systèmes DGX H100 Hopper sont expédiés à des clients de Tokyo à Stockholm, selon NVIDIA. Dans son communiqué, l’entreprise affirme que les GPU Hopper H100 ont été développés pour exécuter l’IA générative qui a révolutionné le monde avec des outils tels que ChatGPT (GPT-4). Le PDG, Jensen Huang, a déjà qualifié ChatGPT comme l’une des plus grandes avancées en informatique et l’a comparé à l’arrivée de l’iPhone pour l’IA. La société a observé une forte demande pour ses GPU IA, entraînant une hausse spectaculaire de son action en bourse.
NVIDIA est en première ligne pour alimenter certains des plus grands clients de centres de données mondiaux responsables de la mise en œuvre de ces outils génératifs. Voici quelques entreprises concernées :
L’Institut d’IA de Boston Dynamics (The AI Institute), une organisation de recherche qui trouve ses racines dans Boston Dynamics, pionnier bien connu en robotique, utilisera un DGX H100 pour poursuivre cette vision. Les chercheurs imaginent des robots mobiles habiles aidant les gens dans les usines, les entrepôts, les sites de catastrophe et, éventuellement, les maisons.
Scissero, qui a des bureaux à Londres et à New York, emploie un chatbot alimenté par GPT pour rendre les processus juridiques plus efficaces. Son Scissero GPT peut rédiger des documents juridiques, générer des rapports et mener des recherches juridiques.
En Allemagne, DeepL utilisera plusieurs systèmes DGX H100 pour étendre les services de traduction entre des dizaines de langues qu’il fournit à ses clients, dont Nikkei, la plus grande maison d’édition du Japon. DeepL a récemment lancé un assistant d’écriture IA appelé DeepL Write.
À Tokyo, les DGX H100 exécuteront des simulations et de l’IA pour accélérer le processus de découverte de médicaments dans le cadre du superordinateur Tokyo-1. Xeureka, une start-up lancée en novembre 2021 par Mitsui & Co. Ltd., l’un des plus grands conglomérats du Japon, gérera le système.
via NVIDIA
Cependant, ce n’est pas tout. NVIDIA est progressivement en train de passer d’une entreprise de matériel à une entreprise et un fournisseur de logiciels. Concevoir du matériel tel que des GPU et des systèmes HPC est une chose, mais les exploiter en est une autre, plus cruciale. Pour cela, NVIDIA dispose d’une vaste gamme de logiciels conçus pour optimiser l’utilisation de ses GPU. Des suites logicielles telles que Base Command et AI Enterprise de NVIDIA et l’ensemble du framework CUDA ne sont que des éléments constitutifs de la gamme de logiciels NVIDIA disponibles pour ses clients et partenaires.
« Chez NVIDIA, nous passons 20 % de notre temps sur le hardware et 80 % sur le logiciel.
Nous travaillons continuellement sur les algorithmes, pour comprendre ce que notre hardware peut et ne peut pas faire. L’IA est un problème à part entière. »
– Manuvir Das, responsable de l’informatique d’entreprise$NVDA… pic.twitter.com/zFM4XNbjVJ
—Simon Erickson (@7Innovator) 1 mai 2023
La gamme de logiciels de NVIDIA a tellement évolué au fil des ans que Manuvir Das, responsable de l’informatique d’entreprise chez NVIDIA, a déclaré lors de l’événement Future Compute que l’entreprise consacre désormais 20 % de son temps au matériel et 80 % de son temps aux logiciels. Il a également mentionné que l’entreprise travaille constamment sur des algorithmes qui les aident à comprendre les capacités et les limites de leur matériel.
Le géant des GPU et fabricant de puces prévoit également d’exploiter sa propre expertise en IA pour développer la prochaine génération de GPU. Grâce à l’apprentissage automatique, NVIDIA sera en mesure de créer des puces « meilleures que celles conçues par des humains » et, avec cuLitho, ces mêmes puces seront conçues et fabriquées 40 fois plus rapidement que les conceptions traditionnelles. NVIDIA collabore avec ASML et TSMC pour faciliter l’adoption de cette technologie.
Dans des benchmarks récents publiés par MLPerf, les GPU de NVIDIA, y compris le Hopper H100, ont montré une amélioration significative des performances dans des tâches d’IA telles que l’inférence et l’apprentissage profond. Cette réussite est une fois de plus due aux mises à jour et innovations continues de la gamme de logiciels qui ne cesse de s’étendre.
Retrouvez, la vidéo d’un de nos confrères hardware de la semaine :
Sources : VideoCardz, WCCF Tech
Ci-dessous, nos guides d'optimisations dont : Optimiser Windows 11 pour les jeux - Optimiser Windows 10 pour les jeux - Comment réduire latence - Stock PS5