Apple a récemment dévoilé dans une étude qu’elle a choisi d’utiliser les unités de traitement Tensor de Google pour former des systèmes clés de son service d’intelligence, plutôt que les GPU d’Nvidia, dominants sur le marché. Cette décision inattendue pourrait signaler un changement de tendance parmi les géants de la technologie.
Un nouveau document de recherche d’Apple révèle que l’entreprise s’est appuyée sur les unités de traitement Tensor de Google (TPUs), plutôt que sur les GPU d’Nvidia, plus répandus, pour entraîner deux systèmes essentiels de son prochain service Apple Intelligence. Le document indique qu’Apple a utilisé 2 048 puces TPUv5p de Google pour entraîner ses modèles d’IA et 8 192 processeurs TPUv4 pour ses modèles d’IA serveur.
Les puces d’Nvidia sont très recherchées, et ce n’est pas sans raison, ayant acquis une renommée pour leurs performances et leur efficacité de calcul. Leurs produits et systèmes sont généralement vendus en tant qu’offres indépendantes, permettant aux clients de les construire et de les faire fonctionner comme bon leur semble.
En revanche, les TPUs de Google ne sont disponibles pour les utilisateurs que dans le cadre du package plus large des services cloud de l’entreprise. Autrement dit, vous ne possédez pas les TPUs de Google, mais y avez plutôt accès par le biais d’un bail, car les clients doivent développer leurs modèles d’IA au sein de l’écosystème Google Cloud.
Cette exigence cloud a joué en faveur d’Apple, selon l’équipe de recherche. Ils ont noté que la capacité de regrouper les TPUs de Google leur a permis de tirer parti de la puissance de traitement nécessaire pour entraîner les modèles d’IA d’Apple, et ce, de manière plus efficace qu’avec un système autonome.
Le choix d’Apple d’utiliser les produits de Google surprend, non seulement à cause de la rivalité historique entre les deux entreprises. Nvidia détient une part de marché dominante en matière de puces IA, ses accélérateurs représentant entre 70 % et 95 % de toutes les ventes.
Cependant, la décision d’Apple pourrait indiquer que les entreprises technologiques cherchent à s’éloigner des coûteux puces haut de gamme d’Nvidia. Par exemple, Amazon a récemment révélé qu’elle développe une nouvelle gamme de puces IA qui seraient prétendument 50 % plus puissantes que celles d’Nvidia tout en consommant 50 % d’énergie en moins.
En mai, Microsoft a annoncé qu’il proposerait à ses clients cloud des services construits sur les puces IA d’AMD, plutôt que sur celles d’Nvidia, tandis que Google a fait des mouvements similaires en avril.



