AMD parie également son avenir sur l’IA en tant que PDG, le Dr Lisa Su, a souligné lors du récent appel aux résultats et Instinct MI300 mènera la charge.
La principale priorité stratégique d’AMD est l’IA, la nouvelle génération d’Instinct MI300 se rapproche du lancement et EPYC Bergame / Genoa-X prêts pour le deuxième trimestre 2023
Le PDG d’AMD déclare que l’IA est et sera sa stratégie numéro un à l’avenir et qu’ils s’efforcent de fournir le hardware et les logiciels nécessaires pour répondre à la demande croissante d’IA en priorité. L’équipe rouge propose bientôt divers produits axés sur l’IA, notamment Instinct MI300, Ryzen 7040 « Phoenix APU » avec Ryzen AI et une gamme d’accélérateurs SoC / HPC pour centres de données.
Nous sommes ravis de notre opportunité en IA. Il s’agit de notre priorité stratégique n°1, et nous nous engageons profondément auprès de notre clientèle pour apporter des solutions conjointes sur le marché, dirigées par nos prochains GPU instinct MI300, les processeurs Ryzen série 7040 avec Ryzen AI, les MPSoC Zynq UltraScale+, le centre de données LVO V70 accélérateurs d’inférence et centres de données adaptatifs Versal AI et SoC de périphérie.
PDG d’AMD, Dr Lisa Su
Pour AMD, l’IA a un marché plus large et beaucoup plus d’applications par rapport au segment du cloud. Il comprend ce que l’entreprise fait déjà dans le segment client et embarqué. En parlant de son accélérateur APU Instinct MI300, l’APU exascale répond aux exigences de l’IA ainsi qu’aux écosystèmes HPC et de supercalcul. Mais AMD affirme que l’Instinct MI300 a évolué au cours des derniers mois.
La société travaille à élargir le pipeline de son accélérateur Instinct MI300 et l’IA générative a connu des progrès considérables. AMD utilise ses prouesses Xilinix pour dynamiser et accélérer le travail lié aux logiciels d’IA ainsi que l’ensemble de la plate-forme d’IA générative.
Maintenant, en ce qui concerne votre question sur le MI300, écoutez, nous sommes vraiment enthousiasmés par l’opportunité de l’IA. Je pense que le succès pour nous est d’avoir une part importante de l’opportunité globale de l’IA. L’IA pour nous est plus large que le cloud. Je veux dire que cela inclut également ce que nous faisons dans Clients et Embedded.
Mais plus précisément, en ce qui concerne le MI300, le MI300 est en fait très bien positionné pour les charges de travail HPC ou de supercalcul ainsi que pour les charges de travail d’IA. Et avec l’intérêt récent pour l’IA générative, je dirais que le pipeline du MI300 s’est considérablement développé ici au cours des derniers mois, et nous en sommes ravis. Nous mettons beaucoup plus de ressources. J’ai mentionné dans les remarques préparées, le travail que nous faisons, en quelque sorte prendre notre Xilinx et en quelque sorte les efforts globaux d’AMD AI et les regrouper en une seule organisation qui est principalement destinée à accélérer notre travail sur les logiciels d’IA ainsi que le travail sur la plate-forme.
Le succès du MI3100 est donc à coup sûr une part importante de la croissance de l’IA dans le cloud. Et je pense que nous nous sentons bien dans la façon dont nous sommes positionnés là-bas.
PDG d’AMD, Dr Lisa Su
Parlant de la date à laquelle AMD lancera les accélérateurs Instinct MI300, la puce commencera sa première montée en puissance de revenus au quatrième trimestre 2023 lorsqu’elle sera livrée aux premiers clients de l’IA cloud et un retour de revenus plus significatif est attendu en 2024. Vous pouvez en savoir plus sur les caractéristiques de la conception multi-chiplet et multi-IP qu’est le MI300 ici.
Nous avons mentionné dans les remarques préparées certains des travaux qui ont été effectués sur le supercalculateur LUMI avec des modèles d’IA générative. Nous avons continué à faire pas mal d’optimisation de la bibliothèque avec le MI250 et l’optimisation logicielle pour vraiment nous assurer que nous pouvions augmenter les performances et les capacités globales. Le MI300 a l’air vraiment bien. Je pense que d’après tout ce que nous voyons, les charges de travail ont également un peu changé en termes de — alors qu’il y a un an, une grande partie de la conversation était principalement axée sur la formation.
Aujourd’hui, cela a migré vers une sorte d’inférence de grand modèle de langage, ce qui est particulièrement bon pour les GPU. Je pense donc que du point de vue du MI300, nous pensons que nous commencerons à augmenter nos revenus au quatrième trimestre avec les clients de l’IA cloud, puis ce sera plus significatif en 2024.
PDG d’AMD, Dr Lisa Su
AMD a par ailleurs réaffirmé que ses processeurs EPYC Bergamo dotés des nouveaux cœurs Zen 4C seront lancés plus tard ce trimestre. Les puces Genoa-X avec des cœurs Zen 4 boostés par V-Cache 3D devraient également être expédiées plus tard ce trimestre.
Nous sommes sur la bonne voie pour lancer Bergamo, notre premier processeur de serveur cloud natif et Genoa, notre quatrième processeur Gen EPYC avec des puces 3D pour le leadership dans les charges de travail informatiques techniques plus tard ce trimestre. Bien que nous nous attendions à ce que la demande de serveurs reste mitigée au deuxième trimestre, nous sommes bien placés pour développer notre empreinte cloud et d’entreprise au second semestre de l’année sur la base de la forte réponse des clients aux performances et aux avantages TCO de Gênes, Bergame et GenX.
PDG d’AMD, Dr Lisa Su
AMD suit maintenant les traces de NVIDIA en s’assurant qu’ils obtiennent une part de l’IA. La demande de GPU AI de NVIDIA a connu une croissance énorme au cours des derniers mois. La société a récemment connu une forte augmentation de sa capitalisation boursière. AMD n’attend pas seulement que les serveurs Instinct MI300 lancent ses projets d’IA, mais travaille également à optimiser les accélérateurs MI250 existants pour répondre à la demande d’IA.
Retrouvez, la vidéo d’un de nos confrères hardware de la semaine :
Sources : VideoCardz, WCCF Tech
Ci-dessous, nos guides d'optimisations dont : Optimiser Windows 11 pour les jeux - Optimiser Windows 10 pour les jeux - Comment réduire latence - Stock PS5