Les États-Unis s’attaquent aux modèles open-source avec GPT-OSS, comment se compare-t-il aux Chinois ?

OpenAI a récemment lancé des modèles à poids ouverts, marquant son entrée sur un marché dominé par les modèles d’IA chinois. Cette initiative illustre un changement d’approche sur le terrain de l’IA, où l’open-source est devenu un impératif.

OpenAI Ouvre la Voix aux Modèles à Poids Ouverts

Les entreprises américaines commencent à emprunter le chemin de leurs homologues chinois en intégrant des écosystèmes open-source aux modèles de langage avancés. Dans le plan d’action ‘IA’ du président Trump, l’accent a été mis sur les modèles d’IA open-source, et OpenAI a répondu à cet appel avec les modèles gpt-oss, une première depuis le modèle GPT-2. Ces modèles sont disponibles en deux versions : gpt-oss-20b et gpt-oss-120b.

Pour les détails techniques, le gpt-oss-20b est doté de 21 milliards de paramètres et utilise un transformateur de type MoE. Avec une fenêtre de contexte capable de gérer jusqu’à 131 072 tokens, il fonctionne efficacement sur des GPU de 16 Go de VRAM. En revanche, le gpt-oss-120b, plus vaste avec 117 milliards de paramètres, exige au minimum une plateforme NVIDIA H100 pour fonctionner.

OpenAI raises 8.3 billion funds
Crédit image : OpenAI

Ces modèles sont publiés sous la licence Apache 2.0, offrant un usage commercial, modification et redistribution. Cela permet une nature pleinement open-source, similaire à leurs équivalents chinois. OpenAI semble cibler les développements en Chine, alors que ces entreprises ont bénéficié d’un environnement open-source depuis plusieurs années. Aux États-Unis, à part le LLaMA de Meta, peu de modèles principaux ont émergé dans cet écosystème.

Avec l’ajout de modèles à poids ouverts, OpenAI pourrait nous surprendre avec de nouvelles publications. En comparaison, les alternatives chinoises surpassent largement les modèles d’OpenAI en nombre de paramètres, des modèles comme DeepSeek V2 et Qwen 3 dépassant les chiffres de la marque américaine.

À lire :  NVIDIA pourrait abandonner son mantra "Un GPU pour tout" au GTC 2026 : attentes à venir
Catégorie GPT‑OSS 120B / 20B DeepSeek-V2 / R1 Qwen3 / Qwen2.5 / QwQ
Organisation OpenAI DeepSeek (Chine) Alibaba (Chine)
Type de modèle MoE sparse (Mélange d’experts) MoE sparse Hybrides denses et MoE
Paramètres total 120B / 20B 236B / 67B 235B / 72B / 32B / autres
Paramètres actifs ~5.1B / ~3.6B ~21B / ~6.7B ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B)
Fenêtre de contexte 128K tokens 128K tokens 128K (Qwen3), 32K (Qwen2.5)

Le nombre de paramètres total ou actif ne détermine pas uniquement la supériorité d’un modèle. Toutefois, pour des raisons de relations publiques, les modèles chinois conserveront un avantage évident sur OpenAI, notamment grâce à leur longévité sur le marché. En analysant les performances en temps réel de ces modèles sur plusieurs tâches connues, les résultats viennent de tests réalisés par Clarifai.

Tâche d’évaluation GPT‑OSS‑120B GLM‑4.5 Qwen‑3 DeepSeek R1 Kimi K2
MMLU‑Pro (Raisonnement) ~90.0% 84.6% 84.4% 85.0% 81.1%
AIME Maths (avec outils) ~96.6–97.9% ~91% ~92.3% ~87.5% ~49–69%
GPQA (PhD Science) ~80.9% 79.1% 81.1% 81.0% 75.1%
SWE‑bench (Codage) 62.4% 64.2% ~65.8% ~65.8%
TAU‑bench (Agents) ~67.8% 79.7% ~67.8% ~63.9% ~70.6%
BFCL‑v3 (Appel de fonction) ~67–68% 77.8% 71.9% 37%

Les résultats indiquent que gpt-oss surpasse la concurrence dans les tâches de raisonnement et d’opérations mathématiques. De plus, il présente un coût opérationnel réduit par rapport à plusieurs modèles denses. Toutefois, en termes de charge de travail agentique et de capacité multilingue, le gpt-oss-120b peine face aux alternatives chinoises, tout en restant un choix de premier plan.

Les modèles à poids ouverts sont essentiels dans le secteur de l’IA pour leurs nombreux avantages. Les initiatives d’OpenAI renforceront sans aucun doute la position des États-Unis face à la domination des entreprises chinoises dans ce domaine. Sam Altman et son équipe peuvent être satisfaits des résultats.

À lire :  Clair Obscur: Expedition 33 - Grand vainqueur des GDC Awards 2026 avec cinq récompenses dont le Game of the Year

Guide Optimisation Pc Windows 11 Jeux Performance Bot Guide Optimisations Pc Windows 10 Jeux Performances Sur Omgpu.com Bot

Guide Comment Reduire Input Lag Latence Omgpu Bot Comment supprimer Coil Whine carte graphique

Vous pourriez aussi aimer