Ranking de Modelos LLM Clasificaciones y Estadísticas de Modelos Basadas en Uso en Tiempo Real
Compara y analiza el uso real y el rendimiento de los modelos LLM desde diversas perspectivas
Mensual Por Modelo Modelos de Alto Razonamiento (excluyendo modelos gratuitos) TOP 10
Guía del Indicador de Relación de Pensamiento
La proporción de pensamiento se calcula basándose en la proporción de tokens de razonamiento / tokens de entrada. Cuanto más alta sea esta proporción, más procesos de razonamiento interno atraviesa el modelo.
Esta métrica indica qué tan profundo es el proceso de pensamiento que experimenta el modelo antes de generar una respuesta. Los modelos con una mayor proporción de pensamiento tienen la posibilidad de producir resultados más sofisticados en tareas como resolución de problemas complejos, razonamiento lógico y planificación de múltiples pasos. Sin embargo, una alta proporción de pensamiento no necesariamente significa mejor rendimiento. En algunas tareas, el razonamiento interno excesivo puede generar costos computacionales innecesarios o ser ineficiente en situaciones donde se necesitan respuestas concisas. Por lo tanto, esta métrica debe interpretarse según las características y el propósito de la tarea.
Rango | Nombre del Modelo | Tokens de Entrada | Tokens de Razonamiento | Proporción de Pensamiento |
---|---|---|---|---|
1 | perplexity/sonar-deep-research | 45.39M | 2.0B | 44.1233 |
2 | thudm/glm-z1-32b-0414 | 32.98M | 71.12M | 2.1564 |
3 | thudm/glm-z1-rumination-32b-0414 | 14.96M | 27.72M | 1.8532 |
4 | deepseek/deepseek-r1-distill-qwen-1.5b | 84.57M | 105.03M | 1.2419 |
5 | deepseek/deepseek-r1-distill-llama-70b | 7.8B | 7.2B | 0.9288 |
6 | deepseek/deepseek-r1-distill-qwen-14b | 136.55M | 91.45M | 0.6697 |
7 | qwen/qwq-32b | 2.5B | 1.6B | 0.6504 |
8 | deepseek/deepseek-r1-0528-qwen3-8b | 643.23M | 392.25M | 0.6098 |
9 | openai/o1-mini | 206.32M | 117.34M | 0.5687 |
10 | deepseek/deepseek-r1-distill-llama-8b | 987.75M | 485.04M | 0.4911 |