LLM-Modell-Ranking Echtzeitbasierte Modell-Rankings und Statistiken nach Nutzung
Vergleichen und analysieren Sie den tatsächlichen Verbrauch und die Leistung von LLM-Modellen aus verschiedenen Perspektiven
Täglich Nach Modell Modell-Effizienz-Ranking (kostenlose Modelle ausgeschlossen) TOP 10
Leitfaden für Effizienz-Ranking-Indikatoren
Effizienz-Rankings werden basierend auf dem Verhältnis Ausgabe-Token / Eingabe-Token berechnet. Je niedriger dieses Verhältnis ist, desto effizienter arbeitet das Modell.
Diese Metrik ist besonders bedeutsam bei Aufgaben wie Dokumentenbearbeitung, Code-Refactoring und Datenanalyse. Hocheffiziente Modelle neigen dazu, nur die notwendigen Teile aus den vom Benutzer bereitgestellten Informationen genau zu extrahieren und prägnant zu antworten, wodurch unnötiger Token-Verbrauch reduziert und eine kosteneffiziente AI-Nutzung ermöglicht wird. Ein niedriges Effizienzverhältnis bedeutet jedoch nicht unbedingt bessere Leistung. Einige komplexe Aufgaben erfordern möglicherweise mehr Output-Token, und wenn detaillierte Erklärungen oder umfassende Informationsbereitstellung erforderlich sind, kann ein höheres Effizienzverhältnis tatsächlich wünschenswert sein. Daher sollte diese Metrik entsprechend der Natur und dem Zweck der Aufgabe interpretiert werden.
Rang | Modellname | Eingabe-Token | Ausgabe-Token | Effizienz-Verhältnis |
---|---|---|---|---|
1 | meta-llama/llama-guard-4-12b | 338.63M | 350.58K | 0.001 |
2 | openai/codex-mini | 41.32M | 480.13K | 0.0113 |
3 | arcee-ai/virtuoso-large | 1.78M | 26.34K | 0.0148 |
4 | arcee-ai/spotlight | 11.97M | 188.48K | 0.0157 |
5 | perplexity/sonar-deep-research | 1.15M | 1.04M | 0.0163 |
6 | mistralai/devstral-small-2505 | 275.39M | 4.73M | 0.0172 |
7 | openai/o4-mini-high-2025-04-16 | 208.65M | 4.57M | 0.0192 |
8 | neversleep/llama-3.1-lumimaid-8b | 215.23M | 4.15M | 0.0193 |
9 | arcee-ai/caller-large | 1.14M | 22.24K | 0.0195 |
10 | meta-llama/llama-guard-2-8b | 36.08K | 771 | 0.0214 |