AMD Radeon RX 7900 XTX : Meilleures performances en IA que le RTX 4090, découvrez comment l’utiliser
La performance des modèles d’IA a pris une nouvelle dimension avec l’arrivée de la Radeon RX 7900 XTX d’AMD, qui surpasse désormais la GeForce RTX 4090 de NVIDIA dans les benchmarks d’inférence. Avec ce GPU, AMD fait une entrée remarquée sur le marché des charges de travail d’intelligence artificielle, ouvrant la voie à une exploitation plus accessible de ces technologies par le grand public.
AMD et les Modèles LLM de DeepSeek
Le modèle DeepSeek R1 a suscité un grand intérêt dans le secteur technologique. Ce modèle se distingue par sa flexibilité et sa capacité à s’exécuter efficacement sur des GPU AMD, notamment la série RX 7000. En comparaison avec les modèles NVIDIA, le RX 7900 XTX présente des performances remarquables dans différents scénarios, renforçant ainsi la position d’AMD dans le domaine de l’IA.
DeepSeek performe très bien sur @AMDRadeon 7900 XTX. Découvrez comment exécuter sur les GPU Radeon et les APU Ryzen AI ici : https://t.co/FVLDLJ18Ov pic.twitter.com/5OKEkyJjh3
— David McAfee (@McAfeeDavid_AMD) 29 janvier 2025
Les GPU disponibles pour les utilisateurs souhaitant exécuter des applications d’intelligence artificielle se sont révélés avantageux pour un grand nombre de personnes. Leur rapport performance/prix demeure attractif en comparaison avec d’autres accéléraiteurs dédiés. Par ailleurs, exécuter des modèles localement permet de préserver la vie privée, une préoccupation majeure dans la sphère des technologies d’IA.
Instructions pour l’Exécution de DeepSeek R1 sur GPU AMD
Pour ceux désireux de tirer pleinement parti des modèles LLM de DeepSeek sur leur hardware, AMD a mis à disposition un guide pratique. Voici les étapes à suivre :
Étape 1 : Assurez-vous d’utiliser le pilote Adrenalin 25.1.1 ou supérieur.
Étape 2 : Téléchargez LM Studio version 0.3.8 ou plus récent depuis lmstudio.ai/ryzenai.
Étape 3 : Installez LM Studio en passant l’écran d’accueil.
Étape 4 : Cliquez sur l’onglet « découverte ».
Étape 5 : Sélectionnez votre distillation DeepSeek R1. Les modèles comme Qwen 1.5B offrent une performance rapide.
Étape 6 : Assurez-vous que la quantification « Q4 K M » est sélectionnée et cliquez sur « Télécharger ».
Étape 7 : Retournez à l’onglet chat et choisissez la distillation DeepSeek R1, en cochant « sélectionner les paramètres manuellement ».
Étape 8 : Dans les couches de déchargement GPU, déplacez le curseur au maximum.
Étape 9 : Cliquez sur « charger le modèle ».
Étape 10 : Interagissez avec un modèle de raisonnement fonctionnant sur votre hardware local AMD !
Ces étapes, si elles ne portent pas leurs fruits, peuvent être complétées par un tutoriel disponible sur YouTube. En suivant ces instructions, il est possible d’utiliser les LLM de DeepSeek sur votre système AMD, garantissant ainsi que les données personnelles ne sont pas exposées. L’avènement des nouveaux GPU devrait encore améliorer la puissance d’inférence, grâce à l’intégration de moteurs d’IA dédiés pour ces charges de travail.




