OpenAI a récemment annoncé la création de son premier chip AI sur mesure, en collaboration avec Broadcom et TSMC. Cet effort ambitieux vise à accroître les capacités d’inférence de l’entreprise, s’inscrivant ainsi dans une dynamique de recherche de performance et d’efficacité dans le domaine de l’intelligence artificielle.
Un Chip AI Focalisé sur l’Inférence
Ce nouveau processeur est spécialement conçu pour des charges de travail liées à l’inférence. Bien que l’industrie met l’accent sur l’entraînement des modèles, l’avenir réside indéniablement dans l’amélioration des capacités d’inférence des modèles de langage de grande taille (LLM). OpenAI a récemment abandonné l’idée de constituer un réseau de fonderies, réorientant ainsi ses efforts vers une conception interne qui nécessite moins de ressources financières et de temps d’exécution.

La firme envisage un modèle hybride d’acquisition de calcul AI, intégrant à la fois des architectures déjà existantes, comme celles de NVIDIA et AMD, tout en développant des solutions internes. Cette stratégie vise à diversifier les charges de travail et à diminuer la dépendance envers ses partenaires constructeurs. Néanmoins, OpenAI semble réticent à commercialiser ses chips à l’avenir, une décision qui dépendra de l’issue de cette première initiative de conception interne.
Les détails techniques de ce chip sont encore flous, mais il a été rapporté que TSMC participe activement à ses exigences en matière de semi-conducteurs. Il pourrait faire son apparition sur le marché d’ici 2026, selon les décisions d’OpenAI. Les informations préliminaires laissent entendre que le chip pourrait être basé sur le processus A16 Angstrom de TSMC, visant ainsi le segment de marché haut de gamme.
Une Équipe de Talents au Service de l’Innovation
OpenAI a constitué une équipe dédiée d’environ 20 personnes, comprenant des experts ayant contribué au développement des TPUs (Tensor Processing Units) de Google. Ce groupe expérimenté renforce les ambitions d’OpenAI de créer un chip AI performant et compétitif dans un environnement technologique en constant changement.
Dans un contexte où chaque grande entreprise technologique cherche à développer son portefeuille de calcul AI, il devient essentiel pour les sociétés de favoriser la création de solutions internes. Cela permet non seulement de réduire la pression sur la chaîne d’approvisionnement en AI, mais aussi d’apporter la personnalisation nécessaire à des charges de travail spécifiques, garantissant ainsi des performances optimisées.



