Dell adopte la diversité des silicones pour l’IA au Dell Technologies World

Lors de l’événement Dell Technologies World, l’entreprise a dévoilé une série de nouveaux produits intégrant des puces d’accélérateurs d’IA. Avec une gamme impressionnante, Dell souligne l’évolution rapide de l’écosystème hardware dédié à l’intelligence artificielle, répondant ainsi aux besoins variés de ses clients.

Lors de l’événement Dell Technologies World, l’entreprise a annoncé de nouveaux produits incluant des puces d’accélérateurs d’IA issues d’AMD, Intel, NVIDIA et Qualcomm, à travers ses lignes de serveurs et de PC. Étant donné que les puces d’IA présentent désormais certaines des plus larges options sur le marché des semi-conducteurs, cette initiative semble logique. C’est cependant une gamme impressionnante qui met en lumière l’évolution fulgurante de l’écosystème dédié à l’IA ces dernières années.

Le choix est un aspect précieux. C’est particulièrement vrai pour les entreprises qui cherchent à développer des produits adaptés aux divers besoins d’une large clientèle. Ainsi, il n’est pas surprenant de voir Dell Technologies adopter cette mentalité dans ses dernières offres matérielles, présentées lors de l’événement.

Il est également intéressant de noter que l’approche de Dell reflète la dynamique croissante et la sophistication des produits en entrée sur les marchés des serveurs et des PC.

Après des années de stagnation, l’intérêt pour les serveurs d’entreprise connaît un renouveau.

Après des années de stagnation, les serveurs d’entreprise connaissent un intérêt croissant. Les entreprises réalisent la valeur de l’exécution de leurs propres charges de travail d’IA et de la construction de centres de données compatibles avec l’IA. Par conséquent, des fournisseurs de serveurs traditionnels comme Dell – et ses concurrents – constatent une demande renouvelée.

La poussée de NVIDIA en faveur d’usines d’IA pour les entreprises a également joué un rôle. À l’honneur de Dell, l’entreprise a été la première à introduire le concept via sa collaboration Project Helix avec NVIDIA il y a deux ans. NVIDIA a depuis embrassé cette tendance, développant des solutions matérielles et logicielles optimisées pour les charges de travail d’IA en entreprise.

Les raisons sous-jacentes sont assez simples. Selon plusieurs sources, la majorité des entreprises conservent la plus grande partie de leurs données derrière des pare-feux. Plus important encore, les données qui n’ont pas été déplacées vers le cloud sont souvent les plus sensibles et précieuses – exactement celles qui sont les plus efficaces pour entraîner et affiner les modèles d’IA. Il est donc logique de traiter les charges de travail d’IA localement. C’est un cas classique de gravité des données : les entreprises souhaitent exécuter des charges de travail là où se trouvent les données.

À lire :  V-Color lance un kit mémoire DDR5 1+1 et RGB pour plateforme AM5

YouTube video

Cependant, cela n’indique pas que les entreprises s’éloignent du cloud. Au contraire, il y a une reconnaissance croissante que le cloud et l’informatique sur site peuvent coexister. En réalité, grâce à l’émergence de normes telles que le Model Context Protocol (MCP), les applications hybrides d’IA distribuées qui tirent parti à la fois des clouds publics et privés devraient rapidement devenir courantes.

Avec cela en tête, il n’est pas surprenant que Dell élargisse ses offres d’usine d’IA en collaboration avec NVIDIA. L’entreprise introduit de nouvelles configurations de ses serveurs PowerEdge XE9780 et XE9785 équipés des puces Blackwell Ultra de NVIDIA – disponibles en conceptions refroidies par air et par liquide. Dell est également parmi les premiers à soutenir la nouvelle architecture RTX Pro de NVIDIA, présentée au Computex à Taïwan.

Le nouveau serveur Dell PowerEdge XE7745 combine des CPUs x86 traditionnels avec les GPU serveurs RTX Pro 6000 Blackwell de NVIDIA dans une conception refroidie par air, facilitant ainsi la mise à niveau pour de nombreuses entreprises. L’idée est que ces nouveaux serveurs peuvent exécuter des charges de travail serveur traditionnelles tout en ouvrant la voie à certaines charges de travail d’IA. Ces systèmes ne possèdent pas la puissance de traitement avancée des systèmes Blackwell les plus sophistiqués conçus pour des environnements basés sur le cloud, mais ils sont plus que suffisamment puissants pour gérer de nombreuses charges de travail d’IA que les entreprises souhaitent exécuter sur leurs propres sites.

En plus des options basées sur NVIDIA, Dell a également introduit une gamme de serveurs PowerEdge XE9785 utilisant les GPU MI350 d’AMD. Grâce à une mise à niveau du logiciel ROCm, ces systèmes sont considérés comme une alternative viable – et dans certains cas, plus économes en énergie – aux configurations basées sur NVIDIA. Plus important encore, ils offrent aux entreprises une plus grande flexibilité dans le choix de leurs fournisseurs.

De même, Dell a annoncé l’une des premières déploiements grand public des accélérateurs IA Gaudi 3 d’Intel, utilisant des serveurs PowerEdge XE9680 configurés avec huit puces Gaudi 3. Ces solutions offrent une alternative plus économique et sont particulièrement adaptées aux organisations utilisant le logiciel IA d’Intel et des modèles optimisés provenant de plateformes comme Hugging Face.

Une des annonces les plus intrigantes est venue de la division PC de Dell : le lancement de la station de travail portable Dell Pro Max Plus. C’est la première fois qu’un NPU dédié est utilisé dans un PC mobile – spécifiquement, le Qualcomm A100.

À lire :  Intel lance les CPU Core Ultra 200HX Plus pour des performances optimisées avec outils binaires, 290HX Plus flagship

En tirant parti de l’interface généralement utilisée pour les GPU dédiés, Dell a été en mesure d’intégrer ce nouvel accélérateur dans un design existant. La carte d’inférence A100 pour PC comprend deux puces dédiées avec un total de 32 cœurs d’accélération IA et 64 Go de mémoire dédiée. L’entreprise cible cet appareil vers les organisations souhaitant exécuter des applications d’inférence personnalisées à la périphérie, ainsi que pour les développeurs de modèles IA souhaitant tirer parti du design NPU de Qualcomm (bien qu’il soit important de noter qu’il s’agit d’une architecture NPU différente de celle trouvée sur les SOC Arm de la série Snapdragon X).

Grâce à sa grande mémoire cache embarquée, l’A100 permet d’utiliser des modèles contenant plus de 100 milliards de paramètres – dépassant largement les possibilités offertes par même les PC Copilot+ les plus avancés d’aujourd’hui.

En plus du hardware, Dell a annoncé plusieurs nouvelles capacités logicielles pour ses plateformes de serveurs d’usine d’IA sous la bannière de la Dell AI Data Platform. L’un des plus grands défis avec les modèles IA de grande taille est l’accès rapide aux données et le chargement de la mémoire. Le nouveau Project Lightning de Dell aborde ce problème avec un système de fichiers parallèle que l’entreprise affirme offrir deux fois la performance de toute solution comparable. Dell a également amélioré son Data Lakehouse, une structure utilisée par de nombreuses applications IA pour accéder et gérer des ensembles de données volumineux plus efficacement.

Dans l’ensemble, Dell a mis en place un ensemble solide de nouvelles offres axées sur l’IA, fournissant aux entreprises une large gamme d’alternatives parmi lesquelles choisir. Étant donné la montée rapide des applications d’IA, comme souligné lors du discours inaugural de l’événement, il semble que la combinaison d’options variées proposée par Dell devrait permettre de répondre aux demandes spécifiques des entreprises de manière ciblée.


Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Comment supprimer Coil Whine carte graphique

Vous pourriez aussi aimer