Pour faire suite à notre histoire précédente, il semble que la croissance du GPU de NVIDIA devrait s’accélérer dans les mois à venir en raison de la popularité croissante de ChatGPT.
Les GPU NVIDIA AI pourraient faire face à des pénuries en raison de la demande croissante des géants de l’IA utilisant ChatGPT et d’autres outils de génération d’IA
Comme indiqué précédemment, ChatGPT et d’autres outils de génération de langage/image/vidéo dépendent fortement de la puissance de traitement de l’IA et c’est là que réside la principale force de NVIDIA. C’est pourquoi les grandes entreprises technologiques qui exploitent ChatGPT utilisent les GPU de NVIDIA pour répondre à leurs besoins croissants en IA. Il semble que les prouesses de NVIDIA dans ce secteur pourraient bien provoquer une pénurie de GPU IA de la société dans les mois à venir. Comme indiqué par FierceElectronics, ChatGPT (version bêta d’Open.AI) a été formé sur 10 000 GPU de NVIDIA, mais depuis qu’il a gagné en popularité, le système a été dépassé et incapable de répondre à la demande d’une large base d’utilisateurs. C’est pourquoi la société a annoncé un nouveau plan d’abonnement ChatGPT Plus qui fournira non seulement un accès général aux serveurs même pendant les heures de pointe, mais offrira également des temps de réponse plus rapides et un accès prioritaire aux nouvelles fonctionnalités et améliorations. L’abonnement ChatGPT Plus est disponible pour 20 $ par mois.
« Il est possible que ChatGPT ou d’autres modèles d’apprentissage en profondeur (deep learning) puissent être formés ou exécutés sur des GPU d’autres fournisseurs à l’avenir. Cependant, actuellement, les GPU NVIDIA sont largement utilisés dans la communauté de l’apprentissage en profondeur (deep learning) en raison de leurs hautes performances et du prise en charge de CUDA. CUDA est une plate-forme informatique parallèle et un modèle de programmation développé par NVIDIA qui permet un calcul efficace sur les GPU NVIDIA. De nombreuses bibliothèques et frameworks d’apprentissage en profondeur (deep learning), tels que TensorFlow et PyTorch, ont une prise en charge intégrée de CUDA et sont optimisés pour les GPU NVIDIA. via Fierce Electronics

De grands géants de la technologie tels que Microsoft et Google prévoient également d’intégrer des LLM de type ChatGPT dans leurs moteurs de recherche, rapporte Forbes. Pour que Google intègre cela dans chaque requête de recherche, il faudrait 512 820 serveurs A100 HGX avec un total de 4 102 568 GPU A100, ce qui devrait représenter environ 100 milliards de dollars de Capex rien qu’en termes de coûts de serveur et de mise en réseau.
Le déploiement de ChatGPT actuel dans chaque recherche effectuée par Google nécessiterait 512 820,51 serveurs A100 HGX avec un total de 4 102 568 GPU A100. Le coût total de ces serveurs et de la mise en réseau dépasse les 100 milliards de dollars de Capex seuls, dont Nvidia recevrait une grande partie. Cela n’arrivera jamais, bien sûr, mais une expérience de pensée amusante si nous supposons qu’aucune amélioration logicielle ou hardware n’est apportée. Dylan Patel via Semianalysis
Investing.com rapporte que les analystes ont prédit que le modèle actuel de ChatGPT est en cours de formation sur environ 25 000 GPU NVIDIA contre les 10 000 GPU NVIDIA utilisés par BETA.
« Nous pensons que GPT 5 est actuellement formé sur des GPU de 25 000 – 225 millions de dollars environ de hardware NVIDIA – et les coûts d’inférence sont probablement bien inférieurs à certains des chiffres que nous avons vus », ont écrit les analystes. « Par ailleurs, la réduction des coûts d’inférence sera essentielle pour résoudre le débat sur le « coût de la recherche » des titans du cloud. » via Investing.com
Cela pourrait être une bonne nouvelle pour NVIDIA mais pas si bonne pour les consommateurs, en particulier les joueurs. Si NVIDIA voit une opportunité dans son activité de GPU IA, il pourrait donner la priorité à l’approvisionnement vers ceux-ci plutôt que vers les GPU de jeu. Les GPU de jeu devraient déjà voir une offre limitée ce trimestre en raison du Nouvel An chinois et bien que le stock soit toujours là, cela pourrait poser un problème pour les GPU haut de gamme qui sont déjà rares. De plus, les GPU haut de gamme offrent également des capacités d’IA plus élevées car les versions du serveur à un prix beaucoup plus bas et ils pourraient devenir une option lucrative, réduisant encore l’offre des joueurs.
Reste à savoir comment NVIDIA répondra à cette énorme demande du segment de l’IA. Le géant du GPU devrait annoncer ses résultats pour le quatrième trimestre de l’exercice 23 le 22 février 2023.
Ci-dessous, la vidéo d’un de nos confrères hardware de la semaine :

Ci-dessous, nos guides d'optimisations dont : Optimiser Windows 11 pour les jeux - Optimiser Windows 10 pour les jeux - Comment réduire latence - Stock PS5