LLM-Modell-Ranking Echtzeitbasierte Modell-Rankings und Statistiken nach Nutzung
Vergleichen und analysieren Sie den tatsächlichen Verbrauch und die Leistung von LLM-Modellen aus verschiedenen Perspektiven
Wöchentlich Nach Modell Modelle mit hoher Denkleistung (kostenlose Modelle ausgeschlossen) TOP 10
Leitfaden für Denkraten-Indikator
Das Denkverhältnis wird basierend auf dem Verhältnis von Reasoning-Token / Input-Token berechnet. Je höher dieses Verhältnis ist, desto mehr interne Denkprozesse durchläuft das Modell.
Diese Metrik zeigt an, wie tiefgreifend der Denkprozess ist, den das Modell vor der Generierung einer Antwort durchläuft. Modelle mit einem höheren Denkverhältnis haben die Möglichkeit, bei Aufgaben wie komplexer Problemlösung, logischem Denken und mehrstufiger Planung ausgefeiltere Ergebnisse zu erzielen. Ein hohes Denkverhältnis bedeutet jedoch nicht unbedingt eine bessere Leistung. Bei einigen Aufgaben kann übermäßiges internes Denken unnötige Rechenkosten verursachen oder in Situationen, in denen prägnante Antworten erforderlich sind, ineffizient sein. Daher sollte diese Metrik entsprechend den Eigenschaften und dem Zweck der Aufgabe interpretiert werden.
Rang | Modellname | Eingabe-Token | Reasoning-Token | Denkverhältnis |
---|---|---|---|---|
1 | perplexity/sonar-deep-research | 8.26M | 453.93M | 54.9601 |
2 | thudm/glm-z1-32b-0414 | 1.86M | 9.87M | 5.3028 |
3 | deepseek/deepseek-r1-distill-qwen-1.5b | 16.29M | 21.26M | 1.3052 |
4 | thudm/glm-z1-rumination-32b-0414 | 620.07K | 691.94K | 1.1159 |
5 | qwen/qwen3-8b-04-28 | 142.22M | 112.85M | 0.7934 |
6 | openai/o1-mini-2024-09-12 | 1.34M | 983.67K | 0.733 |
7 | deepseek/deepseek-r1-distill-llama-70b | 1.5B | 1.0B | 0.6923 |
8 | deepseek/deepseek-r1-distill-llama-8b | 204.87M | 140.80M | 0.6873 |
9 | openai/o1-mini | 33.30M | 21.36M | 0.6413 |
10 | deepseek/deepseek-r1-distill-qwen-14b | 23.04M | 14.27M | 0.6193 |