Nouvelle solution AI rack-scale de Qualcomm avec mémoire LPDDR, défi pour NVIDIA et AMD

Qualcomm a récemment dévoilé ses nouvelles puces d’IA, conçues pour évoluer vers une solution d’inférence à l’échelle des racks, intégrant de la mémoire mobile.

Les nouvelles puces d’IA de Qualcomm au cœur d’une stratégie innovante

Avec ses nouvelles solutions AI200 et AI250, Qualcomm marque son entrée sur le marché de l’inférence, généralement dominé par NVIDIA et AMD. Le constructeur de San Diego utilise une mémoire LPDDR, spécifiquement adaptée, offrant jusqu’à 768 Go sur le package d’accélérateur, surpassant ainsi les capacités HBM classiques, tout en réduisant la consommation d’énergie.

Bien que cette approche présente des avantages tels qu’une meilleure efficacité énergétique et un coût réduit, elle souffre de limitations comme une bande passante mémoire inférieure et une latence accrue. Les entreprises pourront cependant bénéficier d’une option d’inférence fiable, bien que restreinte à des applications spécifiques.

Caractéristiques et concurrents

Les AI200 et AI250 intègrent également un refroidissement liquide direct et consomment 160 kW par rack, une performance plutôt compétitive. Équipées des NPUs Hexagon, ces puces améliorent les capacités d’inférence, rendant l’offre intéressante pour les acteurs du marché. D’autres, comme Intel et NVIDIA, se positionnent également dans cet espace en expansion.

La concurrence s’intensifie dans le secteur de l’IA, et les annonces de Qualcomm semblent avoir suscité un fort intérêt de la part des sites de ventes.

Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Comment supprimer Coil Whine carte graphique

Vous pourriez aussi aimer