Les États-Unis s’attaquent aux modèles open-source avec GPT-OSS, comment se compare-t-il aux Chinois ?
OpenAI a récemment lancé des modèles à poids ouverts, marquant son entrée sur un marché dominé par les modèles d’IA chinois. Cette initiative illustre un changement d’approche sur le terrain de l’IA, où l’open-source est devenu un impératif.
OpenAI Ouvre la Voix aux Modèles à Poids Ouverts
Les entreprises américaines commencent à emprunter le chemin de leurs homologues chinois en intégrant des écosystèmes open-source aux modèles de langage avancés. Dans le plan d’action ‘IA’ du président Trump, l’accent a été mis sur les modèles d’IA open-source, et OpenAI a répondu à cet appel avec les modèles gpt-oss, une première depuis le modèle GPT-2. Ces modèles sont disponibles en deux versions : gpt-oss-20b et gpt-oss-120b.
Pour les détails techniques, le gpt-oss-20b est doté de 21 milliards de paramètres et utilise un transformateur de type MoE. Avec une fenêtre de contexte capable de gérer jusqu’à 131 072 tokens, il fonctionne efficacement sur des GPU de 16 Go de VRAM. En revanche, le gpt-oss-120b, plus vaste avec 117 milliards de paramètres, exige au minimum une plateforme NVIDIA H100 pour fonctionner.

Ces modèles sont publiés sous la licence Apache 2.0, offrant un usage commercial, modification et redistribution. Cela permet une nature pleinement open-source, similaire à leurs équivalents chinois. OpenAI semble cibler les développements en Chine, alors que ces entreprises ont bénéficié d’un environnement open-source depuis plusieurs années. Aux États-Unis, à part le LLaMA de Meta, peu de modèles principaux ont émergé dans cet écosystème.
Avec l’ajout de modèles à poids ouverts, OpenAI pourrait nous surprendre avec de nouvelles publications. En comparaison, les alternatives chinoises surpassent largement les modèles d’OpenAI en nombre de paramètres, des modèles comme DeepSeek V2 et Qwen 3 dépassant les chiffres de la marque américaine.
| Catégorie | GPT‑OSS 120B / 20B | DeepSeek-V2 / R1 | Qwen3 / Qwen2.5 / QwQ |
|---|---|---|---|
| Organisation | OpenAI | DeepSeek (Chine) | Alibaba (Chine) |
| Type de modèle | MoE sparse (Mélange d’experts) | MoE sparse | Hybrides denses et MoE |
| Paramètres total | 120B / 20B | 236B / 67B | 235B / 72B / 32B / autres |
| Paramètres actifs | ~5.1B / ~3.6B | ~21B / ~6.7B | ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B) |
| Fenêtre de contexte | 128K tokens | 128K tokens | 128K (Qwen3), 32K (Qwen2.5) |
Le nombre de paramètres total ou actif ne détermine pas uniquement la supériorité d’un modèle. Toutefois, pour des raisons de relations publiques, les modèles chinois conserveront un avantage évident sur OpenAI, notamment grâce à leur longévité sur le marché. En analysant les performances en temps réel de ces modèles sur plusieurs tâches connues, les résultats viennent de tests réalisés par Clarifai.
| Tâche d’évaluation | GPT‑OSS‑120B | GLM‑4.5 | Qwen‑3 | DeepSeek R1 | Kimi K2 |
|---|---|---|---|---|---|
| MMLU‑Pro (Raisonnement) | ~90.0% | 84.6% | 84.4% | 85.0% | 81.1% |
| AIME Maths (avec outils) | ~96.6–97.9% | ~91% | ~92.3% | ~87.5% | ~49–69% |
| GPQA (PhD Science) | ~80.9% | 79.1% | 81.1% | 81.0% | 75.1% |
| SWE‑bench (Codage) | 62.4% | 64.2% | — | ~65.8% | ~65.8% |
| TAU‑bench (Agents) | ~67.8% | 79.7% | ~67.8% | ~63.9% | ~70.6% |
| BFCL‑v3 (Appel de fonction) | ~67–68% | 77.8% | 71.9% | 37% | — |
Les résultats indiquent que gpt-oss surpasse la concurrence dans les tâches de raisonnement et d’opérations mathématiques. De plus, il présente un coût opérationnel réduit par rapport à plusieurs modèles denses. Toutefois, en termes de charge de travail agentique et de capacité multilingue, le gpt-oss-120b peine face aux alternatives chinoises, tout en restant un choix de premier plan.
Les modèles à poids ouverts sont essentiels dans le secteur de l’IA pour leurs nombreux avantages. Les initiatives d’OpenAI renforceront sans aucun doute la position des États-Unis face à la domination des entreprises chinoises dans ce domaine. Sam Altman et son équipe peuvent être satisfaits des résultats.



