TrendForce rapporte que la mémoire HBM3 & HBM3e de nouvelle génération dominera l’industrie des GPU pour l’intelligence artificielle, surtout après l’augmentation significative de l’intérêt des entreprises pour intégrer la DRAM.
Les futurs GPU d’IA de NVIDIA & AMD exploiteront les capacités des designs de mémoire HBM3 plus rapides
Les GPU d’IA actuels de NVIDIA, A100 et H100, sont alimentés respectivement par la mémoire HBM2e & HBM3, qui ont fait leur apparition en 2018 et 2020. Plusieurs fabricants, tels que Micron, SK Hynix et Samsung, développent rapidement des installations pour la production de masse de la nouvelle et plus rapide mémoire HBM3, et il ne faudra pas longtemps avant qu’elle devienne la nouvelle référence.
Peu de personnes connaissent un détail générique concernant la mémoire HBM3, comme le souligne TrendForce. La mémoire HBM3 sera déclinée en différentes variations. La HBM3 de gamme inférieure fonctionnera apparemment à une vitesse de 5,6 à 6,4 Gbps, tandis que les variants supérieurs dépasseront la barre des 8 Gbps. La déclinaison haut de gamme sera appelée « HBM3P, HBM3A, HBM3+ et HBM3 Gen2 ».
Nous avons récemment signalé une hausse importante de la part de marché de l’industrie HBM, avec en tête SK Hynix. On s’attend à ce que les futurs GPU d’IA, tels que les GPU AMD MI300 Instinct et le H100 de NVIDIA, utilisent le processus HBM3 de nouvelle génération, dont SK Hynix a l’avantage puisqu’il est déjà parvenu aux stades de production et a reçu une demande d’exemplaire de la part de NVIDIA lui-même.
Micron a également annoncé récemment des plans pour sa future conception de mémoire HBM4, mais celle-ci n’est pas attendue avant 2026, de sorte que les futurs GPU Blackwell de NVIDIA, codés « GB100 », sont susceptibles d’utiliser les variants plus rapides de la mémoire HBM3 lorsqu’ils seront disponibles entre 2024 et 2025. La production de masse de la mémoire HBM3E, qui utilise une technologie de processus de 5e génération (10 nm), devrait commencer au premier semestre de 2024 et Samsung / SK Hynix devraient accélérer.
Des concurrents tels que Samsung et Micron sont à fond, avec plusieurs communiqués concernant ces entreprises. On indique que Samsung a proposé à NVIDIA de s’occuper à la fois de la wafer et de l’acquisition de mémoire grâce à ses divisions. En même temps, Micron aurait conclu un partenariat avec TSMC pour être un fournisseur de mémoire pour les GPU d’IA de NVIDIA.
Dans des articles précédents, nous avons discuté des perspectives de l’industrie de l’IA selon les chiffres divulgués par TrendForce. On prévoit une augmentation de 15,4% des expéditions de serveurs d’IA, et le TCAC (Taux de croissance annuel composé) est projeté à 12,2% de 2023 à 2027. Cette augmentation massive des expéditions entraînera inévitablement une concurrence plus forte entre les entreprises, ce qui stimulera davantage l’innovation.
Retrouvez, la vidéo d’un de nos confrères hardware de la semaine :

Ci-dessous, nos guides d'optimisations dont : Optimiser Windows 11 pour les jeux - Optimiser Windows 10 pour les jeux - Comment réduire latence - Stock PS5