Les prix de la DRAM GPU Samsung et SK Hynix grimpent en flèche : HBM3 5 fois plus cher

0

La demande croissante de GPU NVIDIA dans ChatGPT a entraîné une augmentation des prix de la DRAM, y compris HBM de Samsung et SK Hynix.

La demande de GPU NVIDIA pour ChatGPT augmente également les prix des DRAM HBM de Samsung et SK Hynix

Nous avons signalé au cours des dernières semaines comment les GPU NVIDIA sont le choix le plus populaire pour les outils d’IA tels que ChatGPT et le PDG, Jensen Huang, l’a qualifié de plus grande innovation dans le paysage informatique. Désormais, les fabricants de DRAM ont commencé à augmenter les prix de la mémoire à large bande passante ou des solutions HBM utilisées pour alimenter les GPU AI de NVIDIA.

Un rapport du point de vente sud-coréen BusinessKorea révèle que les fabricants de DRAM tels que SK Hynix et Samsung ont augmenté les prix de leurs solutions de mémoire, y compris HBM. On dit que NVIDIA a demandé à SK Hynix d’augmenter sa capacité de production de HBM3. Mais d’autres fournisseurs tels qu’Intel cherchent également à intégrer HBM3 dans leurs propres produits de nouvelle génération, ce qui indique que Sk Hynix pourrait ne pas être en mesure de répondre à la demande. Ainsi, les prix de la mémoire HBM, en particulier la dernière solution HBM3, ont été multipliés par 5.

L’avènement de ChatGPT, un chatbot d’intelligence artificielle (IA), offre aux fabricants coréens de semi-conducteurs de mémoire la possibilité de créer une nouvelle entreprise. ChatGTP apprend beaucoup de données grâce à une très grande intelligence artificielle (IA) et répond naturellement aux questions. La vitesse de traitement des données DRAM est devenue importante pour des services ChatGTP meilleurs et plus rapides. Les entreprises coréennes produisent toutes les DRAM hautes performances essentielles pour cela.

Nvidia, la plus grande société de GPU au monde, a demandé à SK Hynix de fournir le dernier produit, les puces HBM3. Intel, le n°1 mondial des processeurs pour serveurs, travaille également dur pour vendre des produits équipés du HBM3 de SK Hynix. Un initié de l’industrie a déclaré : « Le prix de HBM3 a augmenté jusqu’à cinq fois par rapport à la DRAM la plus performante. »

via BusinessKorea

Mais ce n’est pas seulement HBM3 qui a augmenté, les anciennes normes HBM telles que HBM2 et HBM2e sont également présentes sur les GPU de dernière génération de NVIDIA tels que Ampere et Volta qui offrent également des capacités d’intelligence artificielle de pointe. Ces puces sont également très demandées dans l’industrie de l’IA et utiles pour des outils tels que ChatGPT. SK Hynix contrôle à lui seul la majorité du marché HBM avec une part de 60 à 70 %.

À lire :  La B650M-HDV d'ASRock est la première carte mère AM5 à être vendue au prix d'entrée de gamme promis par AMD

Récemment, des analystes et des initiés de l’industrie ont déclaré que le succès de ChatGPT peut beaucoup profiter à NVIDIA. OpenAI, les créateurs de ChatGPT, utilisent déjà environ 25 000 GPU NVIDIA pour répondre aux besoins actuels de leurs serveurs et avec l’augmentation de la demande et l’apparition de solutions plus concurrentes, il semble que les GPU de NVIDIA, connus pour offrir les meilleures capacités d’IA, peuvent définitivement devenir un choix populaire, ce qui explique également pourquoi l’industrie prédit que NVIDIA peut voir la demande dépasser l’offre globale au cours des prochains trimestres.

Source : Harukaze5719

Ci-dessous, la vidéo d’un de nos confrères hardware de la semaine :

Ci-dessous, nos guides d'optimisations dont : Optimiser Windows 11 pour les jeux - Optimiser Windows 10 pour les jeuxComment réduire latenceStock PS5

Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Ps5 Stock Playstation 5 Bot

Vous pourriez aussi aimer
S’abonner
Notifier de
guest

0 Commentaires
Commentaires en ligne
Afficher tous les commentaires