L’avenir des CPU Intel Arrow Lake avec des unités de traitement neuronal (NPU) : vers plus d’intelligence artificielle ?
- Certains processeurs Arrow Lake-H/U mobiles auront des unités de traitement neuronal (NPU)
- Les puces Core Ultra 200V devraient offrir 48 TOPS de puissance de calcul en intelligence artificielle

Intel Arrow Lake fera ses débuts plus tard cette année, mais seuls certains processeurs disposeront d’unités de traitement neuronal (NPU). Actuellement, seuls les processeurs mobiles Arrow Lake-H/U se vanteront d’une NPU. Cependant, il semble qu’un rafraîchissement, pourrait faire en sorte que l’ensemble de la gamme, y compris les processeurs de bureau, intègre des capacités d’IA dédiées au détriment de l’espace de la puce.
À l’heure actuelle, nous nous attendons à ce que les puces Core Ultra 200V offrent une puissance de calcul AI de 48 TOPS. Cela les placerait à proximité de la série Ryzen AI 300 d’AMD et de ses 50 TOPS. Dans l’ensemble, cela devrait faire des processeurs Arrow Lake-H/U parmi les meilleurs CPU pour les charges de travail impliquant l’intelligence artificielle. En revanche, les versions S et HX devront s’appuyer sur l’accélération GPU. Pour le moment, du moins.
Le rafraîchissement d’Arrow Lake, s’il est effectué, verra une NPU améliorée sur la tuile SOC avec un die 2,8mm plus long que celui d’Arrow Lake. Taille du package identique pour HX et S.
La compatibilité de la carte mère dépendra de l’activation du mode de tension rapide (FVM) sur le rail VccSA, ce qui dépend des constructeurs de cartes.
— Jaykihn (@jaykihn0) 3 juillet 2024
D’après Jaykihn0 sur X, Intel envisagerait un rafraîchissement d’Arrow Lake qui inclurait une NPU améliorée sur la tuile SoC de chaque CPU. Cela mesurerait ainsi 2,8mm de plus que le die d’Arrow Lake. Ce changement semble concerner à la fois les déclinaisons de bureau et mobile de l’architecture. Cependant, les déclinaisons HX et S conserveraient la même taille de package.
Le leaker ajoute également que la compatibilité de la carte mère dépendra du mode de puissance. Par exemple, si le mode de tension rapide (FVM) est activé sur le rail VccSA. Cela indique que le support dépendra de chaque constructeur. Comme d’habitude, cependant, prenez tout cela avec des pincettes. Nous sommes encore loin de la sortie de ce rafraîchissement tant attendu. De plus, Intel n’a pas encore lancé sa première série de puces Arrow Lake, après tout.
Les NPU sont plus courantes que jamais et ne cesseront de progresser avec chaque génération de processeurs. Elles devraient alléger la charge sur les principaux fournisseurs d’IA, car des demandes plus simples peuvent s’exécuter localement plutôt que de saturer l’infrastructure cloud, améliorant ainsi la confidentialité de l’utilisateur. Il reste à voir si le coût en silicium en vaut la peine. Ce qui est sûr, cependant, c’est que nombreux préféreraient voir le silicium utilisé pour une mémoire cache supplémentaire ou d’autres caractéristiques améliorant les performances. Ces NPU doivent donc apporter une offre significative.
Il est bon de se rappeler que l’IA grand public et les NPU en sont largement encore à leurs débuts. N’oubliez pas, des technologies telles que le DLSS et le FSR étaient relativement médiocres lors de leur sortie par rapport à aujourd’hui. Personnellement, tant que les améliorations de traitement générationnelles sont perceptibles, Intel et AMD peuvent continuer à intégrer autant de NPU qu’ils le souhaitent.



