Classement des Modèles LLM Classements et Statistiques de Modèles Basés sur l'Usage en Temps Réel
Comparez et analysez l'utilisation réelle et les performances des modèles LLM sous différents angles
Quotidien Par Modèle Modèles à Haut Raisonnement (modèles gratuits exclus) TOP 10
Guide de l'Indicateur de Ratio de Réflexion
Le ratio de réflexion est calculé sur la base du ratio tokens de raisonnement / tokens d'entrée. Plus ce ratio est élevé, plus le modèle traverse de processus de raisonnement interne.
Cette métrique indique à quel point le processus de réflexion du modèle est approfondi avant de générer une réponse. Les modèles avec un ratio de réflexion plus élevé ont la possibilité de produire des résultats plus sophistiqués dans des tâches telles que la résolution de problèmes complexes, le raisonnement logique et la planification en plusieurs étapes. Cependant, un ratio de réflexion élevé ne signifie pas nécessairement de meilleures performances. Dans certaines tâches, un raisonnement interne excessif peut générer des coûts de calcul inutiles ou être inefficace dans des situations où des réponses concises sont nécessaires. Par conséquent, cette métrique doit être interprétée selon les caractéristiques et l'objectif de la tâche.
Rang | Nom du Modèle | Tokens d'Entrée | Tokens de Raisonnement | Ratio de Réflexion |
---|---|---|---|---|
1 | perplexity/sonar-deep-research | 1.28M | 68.09M | 53.1884 |
2 | thudm/glm-z1-32b-0414 | 58.26K | 200.75K | 3.4458 |
3 | thudm/glm-z1-rumination-32b-0414 | 21.52K | 33.83K | 1.5716 |
4 | deepseek/deepseek-r1-distill-llama-8b | 33.89M | 38.89M | 1.1478 |
5 | deepseek/deepseek-r1-distill-llama-70b | 198.89M | 216.61M | 1.0891 |
6 | deepseek/deepseek-r1-distill-qwen-1.5b | 2.74M | 2.15M | 0.7877 |
7 | openai/o1-mini-2024-09-12 | 149.81K | 114.37K | 0.7634 |
8 | openai/o1-mini | 4.65M | 3.09M | 0.6646 |
9 | qwen/qwq-32b | 86.66M | 50.96M | 0.5881 |
10 | openai/o1-preview | 1.51M | 672.48K | 0.445 |