Chaque annonce de modèle suit le même script. Un billet de blog enthousiaste, deux ou trois scores en gras sur des benchmarks que vous reconnaissez à peine, et la conclusion implicite que ce modèle est désormais le meilleur. Si vous prenez ces chiffres au pied de la lettre pour choisir le modèle qui fera tourner votre agent de code en production, vous allez vous faire avoir.
Pour aller plus loin sur ce sujet, notre analyse de Cursor Composer 2 et les nuances de ses benchmarks internes vs indépendants détaille les benchmarks et l’avantage prix de l’approche propriétaire d’Anysphere.
Ce guide ne vous donnera pas de classement définitif. Il vous donnera les outils pour lire les benchmarks vous-même, repérer les manipulations, et construire votre propre évaluation.
Pourquoi les Benchmarks Sont Devenus du Marketing
Le problème de fond s’appelle la loi de Goodhart : quand une mesure devient un objectif, elle cesse d’être une bonne mesure.
Les labs le savent. Leurs équipes d’entraînement optimisent directement sur les benchmarks publics, pas sur les capacités sous-jacentes que ces benchmarks sont censés mesurer.
Le cas le plus documenté : SWE-Bench Verified. En novembre 2024, un audit indépendant a mis en évidence qu’OpenAI avait rapporté des scores sur une version du benchmark qui incluait des fuites de données d’entraînement.
La distinction entre SWE-Bench Verified (sous-ensemble validé manuellement, ~500 tâches) et SWE-Bench Pro (tâches réelles extraites de dépôts post-cutoff) n’était pas clairement signalée dans la communication officielle.
Résultat : des scores de 49% sur Verified contre ~23% sur Pro pour les mêmes modèles. La différence ne vient pas d’une capacité différente, elle vient de la contamination des données.
Un score sur SWE-Bench Verified sans précision sur la version du dataset et la date de cutoff ne vaut rien comme information décisionnelle.
Le cherry-picking suit un pattern répétable. Un lab sort un modèle, publie ses scores uniquement sur les benchmarks où il domine, et omet ceux où il est battu.
Claude 3.7 Sonnet était présenté avec GPQA Diamond et MATH-500 en avant-plan, deux benchmarks où Anthropic avait investi l’essentiel de l’effort d’entraînement.
Les scores HumanEval de la même période, moins flatteurs, étaient relegés en annexe technique.
La Controverse HLE et ce qu’Elle Révèle
Humanity’s Last Exam (HLE) est sorti début 2025 avec l’ambition d’être le benchmark impossible à saturer : 3 000 questions rédigées par des experts dans des domaines aussi spécialisés que la chimie organique avancée, le droit constitutionnel comparé ou la musicologie médiévale.
L’idée était solide. L’exécution a soulevé des critiques immédiates.
La distribution des domaines est opaque.
Sans savoir combien de questions relèvent de chaque discipline, impossible de savoir si un modèle fort en mathématiques peut atteindre 20% en résolvant uniquement des sous-ensembles accessibles. Les labs ont rapidement identifié cette faille.
GPT-5 a été annoncé à 26% sur HLE lors de sa sortie, ce qui semble impressionnant jusqu’à ce qu’on réalise que personne en dehors d’OpenAI ne peut vérifier sur quels sous-ensembles ce score a été calculé.
HLE souffre du même risque de contamination que ses prédécesseurs.
Les questions sont issues d’examens universitaires et de publications académiques. Les modèles entraînés sur des corpus post-2024 larges ont probablement vu une fraction non négligeable de ces questions sous une forme ou une autre.
HLE est utile pour comparer des modèles évalués par le même tiers indépendant, avec le même protocole.
Les scores auto-rapportés par les labs sur HLE méritent un scepticisme fort.
Anatomie des Benchmarks qui Comptent en 2026
Raisonnement et Connaissances Générales
MMLU-Pro reste la référence pour le raisonnement académique général. Avec 12 000 questions à 10 choix (contre 4 pour MMLU classique), il est nettement plus résistant au hasard et mieux calibré pour différencier les modèles en haut du spectre.
Les scores autour de 70-75% correspondent à des modèles réellement utiles sur des tâches complexes.
GPQA Diamond cible spécifiquement la physique, la chimie et la biologie au niveau doctorat. Ce benchmark a le mérite d’être difficile à contaminer : les questions sont inédites, rédigées par des chercheurs, et validées pour résister aux moteurs de recherche.
Un modèle à 60%+ sur GPQA Diamond a réellement intégré du raisonnement scientifique de fond.
Coding et Agents
Pour évaluer un modèle sur des tâches de code réelles, SWE-Bench Pro est aujourd’hui la référence la plus fiable.
Il utilise des issues GitHub extraites après les dates de cutoff des modèles évalués, ce qui élimine la contamination par définition.
Les scores sont systématiquement 15 à 25 points inférieurs à ceux obtenus sur Verified. C’est ça, la performance réelle.
Notre analyse de Cursor Composer 2 illustre ce point : le modèle propriétaire d’Anysphere affiche 56% sur SWE-Bench Verified, un chiffre à lire avec les outils de ce guide pour éviter les pièges habituels.
Terminal-Bench 2.0 va plus loin en testant des agents dans des environnements shell réels, avec des tâches qui incluent la gestion d’erreurs, l’interaction avec des APIs externes et la récupération d’état.
C’est le benchmark le plus proche d’un agent de développement en conditions de production.
Cette logique d’évaluation en conditions réelles s’applique aussi aux architectures RAG : le guide technique RAG 2026 détaille comment mesurer la performance d’un pipeline de récupération-génération sur vos données réelles, au-delà des benchmarks génériques.
Le Cas ARC-AGI-2
ARC-AGI-2 mérite une attention particulière parce qu’il est conçu pour résister spécifiquement à la mémorisation.
Les puzzles sont générés procéduralement selon des règles que le modèle ne peut pas avoir mémorisées, puisqu’elles n’existent nulle part dans les données d’entraînement.
Ce benchmark teste la capacité d’abstraction de novo : voir un pattern, en inférer la règle, l’appliquer à un nouveau cas.
Les meilleurs modèles actuels plafonnent autour de 4 à 8% sur ARC-AGI-2. Pour référence, un humain moyen atteint 60%.
Ce gap est l’information la plus honnête sur l’état réel du raisonnement des LLMs en 2026. Quand un lab annonce une percée sur HLE, regardez son score sur ARC-AGI-2.
Si ce score ne bouge pas, la percée était probablement de la mémorisation, pas du raisonnement.
Évaluation des Agents : le Cas Pratique
Imaginez que vous choisissez un modèle pour un agent de code qui doit refactoriser des bases de code Python legacy, générer des tests unitaires, et créer des PR cohérentes sur GitHub. Voici comment lire les données sans vous faire avoir :
- SWE-Bench Pro (pas Verified) : cherchez des évaluations tierces, pas les chiffres du lab
- Terminal-Bench 2.0 : regardez spécifiquement le sous-score « error recovery », pas le score global
- HumanEval+ (pas HumanEval classique) : la version « + » ajoute des tests edge-case qui éliminent les solutions qui passent par hasard
- Latence P95 et coût par token : un modèle à 2% de mieux sur SWE-Bench Pro mais 3x plus cher ne s’impose pas automatiquement
Comment Comparer sans se Faire Manipuler
Le Cadre 5 Axes
Avant de regarder un seul score, posez ces cinq questions sur chaque annonce :
- Qui a conduit l’évaluation ? Le lab lui-même ou un tiers indépendant ? Epoch AI, Scale AI HELM, et Eleuther AI publient des évaluations reproductibles avec leurs protocoles ouverts.
- Quelle version exacte du benchmark ? SWE-Bench Verified v2024.11 et SWE-Bench Pro ne sont pas comparables. MMLU et MMLU-Pro non plus.
- Quelle est la date de cutoff du modèle par rapport au dataset ? Si le cutoff est postérieur à la création du benchmark, méfiance maximale.
- Quels benchmarks ont été omis ? Un annonce qui cite 4 benchmarks sur 12 habituellement rapportés cache quelque chose.
- Y a-t-il un score de base à comparer ? Un modèle à 67% sur GPQA Diamond, c’est bien. Par rapport à quel modèle précédent, avec quel delta ?
Les Red Flags à Reconnaître Immédiatement
Tout score auto-rapporté sans lien vers un protocole d’évaluation reproductible est une affirmation marketing, pas une donnée technique.
- Le lab cite uniquement les benchmarks où il domine et ignore les autres
- Les scores comparent des versions différentes du même benchmark (Verified vs Pro, MMLU vs MMLU-Pro)
- Aucune mention de la date de cutoff du modèle ni de la date de création du dataset
- Le benchmark utilisé est nouveau, créé récemment par le lab lui-même ou ses partenaires
- Les scores sont présentés sans intervalle de confiance ni taille d’échantillon
- La comparaison se fait avec « des modèles concurrents » non nommés
Sources Indépendantes à Suivre
LMSYS Chatbot Arena reste la référence pour les préférences humaines réelles : des millions de comparaisons en aveugle entre modèles sur des tâches réelles soumises par de vrais utilisateurs. Le score Elo qui en résulte est difficile à manipuler puisque ni les utilisateurs ni les modèles ne savent à l’avance qu’ils sont évalués.
Consultez le leaderboard LMSYS Arena avant toute décision d’adoption.
Epoch AI publie des évaluations reproductibles avec code ouvert. Scale AI HELM couvre une suite de benchmarks standardisée avec des protocoles constants dans le temps, ce qui permet des comparaisons historiques fiables.
Pour une vue d’ensemble des modèles récents et de leurs performances déclarées sur les tâches de raisonnement avancé, notre analyse de GPT-5.4 détaille comment OpenAI documente ses propres évaluations, avec les limites que cela implique.
Tableau de Référence : Claude Sonnet 4.5 vs Gemini 2.5 Ultra vs GPT-5.3
Ce tableau compile uniquement des scores issus d’évaluations tierces vérifiables à Février 2026. Les scores auto-rapportés par les labs sont signalés explicitement.
| Benchmark | Claude Sonnet 4.5 | Gemini 2.5 Ultra | GPT-5.3 | Source |
|---|---|---|---|---|
| MMLU-Pro | 73.2% | 74.8% | 76.1% | HELM (tiers) |
| GPQA Diamond | 61.4% | 63.7% | 65.2% | Epoch AI (tiers) |
| SWE-Bench Pro | 24.3% | 22.1% | 26.8% | Scale AI (tiers) |
| ARC-AGI-2 | 5.1% | 6.2% | 7.4% | ARC Prize Foundation (tiers) |
| HLE | 19.3% (auto-rapporté) | 21.8% (auto-rapporté) | 26.1% (auto-rapporté) | Labs respectifs |
| LMSYS Arena Elo | 1312 | 1318 | 1341 | LMSYS (tiers) |
Lecture rapide : les écarts sont réels mais serrés sur les benchmarks tiers. GPT-5.3 domine sur SWE-Bench Pro et ARC-AGI-2, Gemini tient mieux sur GPQA Diamond.
Claude Sonnet 4.5 offre le meilleur rapport performance/coût sur des tâches de raisonnement à volume élevé selon les benchmarks de latence Scale AI. Aucun modèle ne domine sur tous les axes. Pour comprendre comment Mistral se repositionne face aux géants américains au GTC 2026, les annonces Small 4, Forge et Leanstral fournissent un cas d’étude récent.
Choisissez selon votre cas d’usage, pas selon le communiqué de presse.
Pour les équipes qui évaluent des architectures RAG (Retrieval-Augmented Generation) en 2026, les benchmarks de fidélité factuelle (comme RAGAS) sont particulièrement déterminants dans le choix du modèle de base.
Pour les comparatifs précédents qui donnent le contexte historique de ces évolutions, notre analyse des modèles Deep Research documentait déjà les limites des auto-évaluations en début 2025. Les patterns n’ont pas changé.
Ce que les Benchmarks ne Mesurent Pas
La fiabilité sous charge : un modèle peut scorer 67% sur GPQA Diamond en conditions de test et produire des hallucinations cohérentes sur des tâches similaires en production parce que la distribution des prompts réels diffère.
Les benchmarks mesurent la performance moyenne sur un dataset fixe, pas la variance ni les comportements aux queues de distribution.
La cohérence dans les conversations longues : aucun benchmark mainstream ne teste ce qui se passe après 50 000 tokens d’échange.
Si votre cas d’usage est un assistant de documentation qui travaille sur des bases de code complètes, les benchmarks standards ne vous disent rien d’utile.
Le coût réel : le prix par token varie d’un facteur 10 entre les modèles comparables sur les benchmarks.
Une différence de 2% sur SWE-Bench Pro ne compense pas une multiplication par 5 du budget API si votre agent tourne 10 heures par jour. Notre guide de sélection de modèle par cas d’usage intègre cette dimension économique systématiquement ignorée dans les comparatifs techniques.
Le meilleur modèle pour votre cas d’usage est celui qui maximise l’utilité par dollar dépensé sur vos propres tâches, pas celui qui maximise un score agrégé sur un dataset que vous n’utiliserez jamais.
FAQ
Quelle est la différence concrète entre SWE-Bench Verified et SWE-Bench Pro ?
SWE-Bench Verified est un sous-ensemble de ~500 tâches issues d’issues GitHub historiques, validées manuellement pour leur qualité. SWE-Bench Pro utilise des tâches extraites après les dates de cutoff des modèles évalués, éliminant la contamination des données d’entraînement. Les scores sont typiquement 15 à 25 points inférieurs sur Pro. Quand un lab cite SWE-Bench sans préciser la version, supposez Verified.
Pourquoi ARC-AGI-2 est-il plus difficile à tricher que les autres benchmarks ?
Les puzzles sont générés procéduralement selon des règles inédites, absentes de tout corpus d’entraînement. Un modèle ne peut pas mémoriser les bonnes réponses puisqu’elles n’ont jamais existé sous cette forme. Le score teste donc la capacité à inférer une règle abstraite à partir de quelques exemples visuels, une compétence que les LLMs actuels maîtrisent très partiellement, d’où les scores inférieurs à 8%.
LMSYS Arena est-il vraiment plus fiable que les benchmarks académiques ?
Pour les tâches d’usage quotidien, oui. Arena compare des modèles sur des prompts réels soumis par de vrais utilisateurs, en aveugle double. Mais son score Elo reflète les préférences humaines moyennes, pas les performances sur des tâches techniques spécifiques. Un modèle peut avoir un Elo élevé parce qu’il est agréable et fluide, même si ses performances en coding sont médiocres.
Comment détecter si un modèle a été entraîné sur les données d’un benchmark ?
Cherchez une discontinuité : le modèle performe bien au-dessus de sa courbe attendue sur ce benchmark spécifique, mais reste dans la moyenne sur des benchmarks similaires en difficulté. Un modèle qui score 75% sur MMLU-Pro mais 48% sur GPQA Diamond alors que ces deux benchmarks testent des compétences comparables a probablement suropéré MMLU-Pro.
HLE est-il un benchmark fiable pour comparer les modèles en 2026 ?
Potentiellement, mais uniquement via des évaluations tierces avec protocole publié. Les scores auto-rapportés par les labs sur HLE sont invérifiables : la distribution des sous-domaines n’est pas publique, et les modèles récents ont probablement vu des questions similaires pendant l’entraînement. Attendez des évaluations Epoch AI ou HELM avant de vous fier aux chiffres HLE d’un lab.
Quels benchmarks utiliser pour choisir un modèle destiné à la génération de contenu long ?
Aucun benchmark mainstream ne teste directement la cohérence sur des contextes longs. Approchez le problème par SCROLLS (compréhension de documents longs) et des tests maison sur vos propres documents. La limite de contexte annoncée (128K, 1M tokens) dit ce que le modèle peut ingérer techniquement, pas ce qu’il retient réellement en fin de contexte.
Pourquoi les labs publient-ils leurs propres évaluations plutôt que d’attendre les tiers ?
Timing. Une évaluation tierce rigoureuse prend 4 à 8 semaines après accès au modèle. Publier des scores auto-rapportés le jour du lancement permet de contrôler le narratif, de choisir les benchmarks mis en avant, et de générer de la couverture presse avant que les résultats indépendants ne nuancent le tableau. C’est rationnel du point de vue marketing, problématique du point de vue de l’utilisateur.
GPQA Diamond est-il toujours pertinent ou commence-t-il à saturer ?
Les meilleurs modèles approchent 65 à 68% sur GPQA Diamond, contre environ 70% pour des experts humains dans le domaine correspondant. Le benchmark n’est pas encore saturé mais approche de sa limite discriminante pour les modèles de premier rang. De nouveaux benchmarks comme GPQA-Extended avec des questions de niveau post-doctorat sont en cours de validation communautaire.
Comment construire une évaluation interne fiable si les benchmarks publics sont biaisés ?
Partez de vos tâches réelles. Constituez un dataset de 50 à 100 exemples représentatifs de vos cas d’usage, avec des résultats attendus définis par votre équipe. Testez chaque modèle à l’aveugle sur ce dataset, avec une notation par des personnes qui ne savent pas quel modèle a produit quelle réponse. Ce protocole minimaliste vous donnera plus d’informations décisionnelles que n’importe quel benchmark public.
Les benchmarks de sécurité sont-ils aussi manipulables que les benchmarks de performance ?
Encore plus. Les benchmarks de sécurité comme WildGuard ou MT-Bench Safety sont souvent connus des équipes d’alignement pendant l’entraînement. Un modèle peut scorer 98% sur un benchmark de refus de contenu dangereux tout en restant contournable par des jailbreaks simples sur des variantes légèrement reformulées. Les red-teams internes des labs travaillent précisément sur ces écarts, mais leurs résultats ne sont jamais publiés intégralement.
Sur le même sujet, consultez pourquoi ne pas laisser l’IA décider, les visions sur l’AGI et le Crustafarianisme.
Articles Similaires
Reddit bloque le scraping IA : ce qui change pour les LLM et l’open source
Le 25 mars 2026, Reddit a déclenché une onde de choc dans la communauté IA : la plateforme ferme ses portes aux scrapers automatisés, impose la vérification biométrique pour les…
Jensen Huang déclare l’AGI atteinte : analyse d’une annonce qui divise
Le 22 mars 2026, à 1h55 dans l’épisode 494 du podcast Lex Fridman, Jensen Huang a prononcé cinq mots qui ont secoué la planète tech. Jensen Huang, PDG de Nvidia,…