Leader global
Claude Opus 4.7
Rédaction longue, analyse complexe, agents
AnthropicLeader global
Rédaction longue, analyse complexe, agents
AnthropicLe plus nerveux
GPT-5.4 démarre le plus vite côté débit de réponse.
OpenAIConfort français
Claude Opus 4.7 reste la lecture la plus naturelle pour un usage FR.
AnthropicRapport valeur / prix
Phi-5 minimise le coût d'entrée sans sortir du radar compétitif.
Microsoft| # | Modèle | Créateur | Global | Intelligence | Arena Elo | GPQA Diamond | SWE-bench | AIME 2025 | Vitesse | Prix/M in | Qualité FR | ↗ | Best for |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 1 | Claude Opus 4.7 | Anthropic | 68.1 | 57 | 1452 | 84.2% | 64.8% | 85.3% | 8.66 t/s | $10 | Excellent | ↑ | Rédaction longue, analyse complexe, agents |
| 2 | Gemini 3.1 Pro | 66.6 | 57 | 1447 | 82.5% | 61.4% | 82% | 32.4 t/s | $4.5 | Excellent | ↑ | Analyse, multimodal, fenêtre 1M | |
| 3 | GPT-5.4 | OpenAI | 69.5 | 57 | 1455 | 83.8% | 67.2% | 88.6% | 226.49 t/s | $5.63 | Excellent | ↑ | Code, raisonnement, ultra-rapide |
| 4 | Kimi K2.6 | Kimi | 57.5 | 54 | 1388 | 76.4% | 52.1% | 73.8% | 18.5 t/s | $3.5 | Bon | ↑ | Longue fenêtre, analyse de documents |
| 5 | Muse Spark | Meta | 53.2 | 52 | 1368 | 71.8% | 47.3% | 67.4% | 45.2 t/s | $1.2 | Très bon | ↑ | Open source, multimodal, déploiement local |
| 6 | Qwen3.6 Max | Alibaba | 52.5 | 52 | 1362 | 70.3% | 46.8% | 69.1% | 38.4 t/s | $2.8 | Bon | ↑ | Multilingue, code, open source |
| 7 | GLM-5.1 | Z AI | 48.7 | 51 | 1341 | 68.2% | 43.5% | 62.8% | 1.67 t/s | $2.15 | Bon | ↑ | Code, bilingue chinois, compétitif |
| 8 | MiniMax-M2.7 | MiniMax | 44.6 | 50 | 1318 | 64.5% | 38.7% | 57.2% | 2.13 t/s | $0.53 | Bon | → | Économique, usage général |
| 9 | Grok 4 | xAI | 45.3 | 49 | 1312 | 63.1% | 40.6% | 71.4% | 12.53 t/s | $3 | Très bon | ↑ | Raisonnement, grande fenêtre 2M |
| 10 | MiMo-V2-Pro | Xiaomi | 42.9 | 49 | 1302 | 61.4% | 37.8% | 63.5% | 3.46 t/s | $1.5 | Bon | ↑ | Open source, raisonnement, économique |
| 11 | DeepSeek V3.2 | DeepSeek | 34 | 42 | 1264 | 54.3% | 31.9% | 44.7% | 1.83 t/s | $0.32 | Bon | → | Code, open source, ultra-économique |
| 12 | Mistral Large 3 | Mistral | 31 | 38 | 1248 | 50.1% | 28.4% | 38.2% | 95 t/s | $2 | Excellent | ↑ | Multilingual, Europe, vie privée |
| 13 | Phi-5 | Microsoft | 29.5 | 36 | 1235 | 48.7% | 26.1% | 41.5% | 180 t/s | $0.18 | Bon | ↑ | Efficacité, modèle léger, open source |
| 14 | Nova Prime 2 | Amazon | 27.8 | 35 | 1221 | 46.3% | 24.8% | 36% | 110 t/s | $1.5 | Moyen | → | AWS, entreprise, longs contextes |
| 15 | Command R3+ | Cohere | 25.2 | 33 | 1208 | 44.1% | 22.3% | 31.8% | 88 t/s | $2.5 | Bon | → | RAG, recherche d'entreprise, grounding |