Ranking de Modelos LLM Rankings e Estatísticas de Modelos Baseados em Uso em Tempo Real
Compare e analise o uso real e desempenho dos modelos LLM de várias perspectivas
Semanal Por Modelo Modelos de Alto Raciocínio (excluindo modelos gratuitos) TOP 10
Guia do Indicador de Taxa de Pensamento
A proporção de pensamento é calculada com base na proporção de tokens de raciocínio / tokens de entrada. Quanto maior for esta proporção, mais processos de raciocínio interno o modelo passa.
Esta métrica indica quão profundo é o processo de pensamento que o modelo passa antes de gerar uma resposta. Modelos com maior proporção de pensamento têm a possibilidade de produzir resultados mais sofisticados em tarefas como resolução de problemas complexos, raciocínio lógico e planejamento de múltiplas etapas. No entanto, uma alta proporção de pensamento não significa necessariamente melhor desempenho. Em algumas tarefas, o raciocínio interno excessivo pode gerar custos computacionais desnecessários ou ser ineficiente em situações onde respostas concisas são necessárias. Portanto, esta métrica deve ser interpretada de acordo com as características e propósito da tarefa.
Classificação | Nome do Modelo | Tokens de Entrada | Tokens de Raciocínio | Taxa de Pensamento |
---|---|---|---|---|
1 | perplexity/sonar-deep-research | 8.26M | 453.93M | 54.9601 |
2 | thudm/glm-z1-32b-0414 | 1.86M | 9.87M | 5.3028 |
3 | deepseek/deepseek-r1-distill-qwen-1.5b | 16.29M | 21.26M | 1.3052 |
4 | thudm/glm-z1-rumination-32b-0414 | 620.07K | 691.94K | 1.1159 |
5 | qwen/qwen3-8b-04-28 | 142.22M | 112.85M | 0.7934 |
6 | openai/o1-mini-2024-09-12 | 1.34M | 983.67K | 0.733 |
7 | deepseek/deepseek-r1-distill-llama-70b | 1.5B | 1.0B | 0.6923 |
8 | deepseek/deepseek-r1-distill-llama-8b | 204.87M | 140.80M | 0.6873 |
9 | openai/o1-mini | 33.30M | 21.36M | 0.6413 |
10 | deepseek/deepseek-r1-distill-qwen-14b | 23.04M | 14.27M | 0.6193 |