
Après un lancement très attendu, GPT‑5 s’est retrouvé au centre d’une tempête. Entre benchmarks contestés, accès restreint au modèle de raisonnement et disparition de GPT‑4o, la communauté d’OpenAI a exprimé un véritable ras-le-bol. Même si l’entreprise a rectifié certains points, sa position de leader en a pris un sacré coup.
Des résultats revendiqués mis en doute par des benchmarks jugés biaisés
À peine lancé, GPT‑5 a fait l’objet de critiques virulentes. Plusieurs utilisateurs ont dénoncé des benchmarks taillés sur mesure. GPT‑5 ne dépasse Claude 4 Opus que sur une version édulcorée du test SWE‑bench, où les questions les plus difficiles ont été supprimées. Sur le test officiel, Claude reste en tête.
En conséquence, les performances de GPT‑5 paraissent décevantes au regard des meilleures technologies actuelles. Par exemple, Claude Opus 4.1 égalise GPT‑5‑high pour le code, les instructions longues ou les prompts complexes, et cela, sans modèle de raisonnement. Même Gemini 2.5 Pro rivalise avec GPT‑5 Thinking sur LMArena. Ce constat alimente chez certains un sentiment de manipulation, jugé peu élégant.
Accès au modèle Thinking limité puis élargi, mais la confiance peine à revenir
Prochain feu de critique : l’accès restreint à GPT‑5 Thinking. Au départ, les abonnés ChatGPT Plus (23 €/mois) ne pouvaient envoyer que 200 messages par semaine, largement insuffisant.
OpenAI a réagi vite : il a d’abord doublé la limite, puis l’a portée à 3 000 messages dans certains tests. Sam Altman explique avoir redéployé les ressources de calcul pour prioriser les utilisateurs individuels de ChatGPT.
En parallèle, l’accès à l’API s’améliore progressivement, d’abord pour les abonnés, puis pour les développeurs. L’entreprise promet aussi de doubler sa capacité de calcul dans les cinq prochains mois. Ces mesures visent à rapprocher la confiance des utilisateurs fidèles, mise à mal par le lancement.
Routage automatique défaillant corrigé, mais l’équilibre coût-performance reste fragile
Enfin, le système de routage automatique faisait défaut. Il envoyait plusieurs requêtes vers un modèle sans raisonnement, moins coûteux, mais aussi moins performant. OpenAI a qualifié cela de bug et réhabilité le choix manuel du modèle.
Sam Altman précise que les modèles de raisonnement coûtent cher en ressources. Il ajoute que, même si GPT‑5 est plus rapide que o3 pour coder, il faudra du temps avant d’en faire le modèle universel. Ce rappel à la réalité budgétaire souligne le défi stratégique d’OpenAI : concilier performance, efficacité et viabilité tout en satisfaisant une communauté exigeante.
L’impact de ce lancement mouvementé ne doit pas être sous-estimé
GPT‑5 arrive dans un contexte où la confiance s’acquiert petit à petit, mise après mise. La communauté d’OpenAI ne se contente pas d’un modèle performant, elle réclame un dialogue constant. Et cela devient un élément essentiel pour maintenir sa légitimité de leader.