LLM-Modell-Ranking Echtzeitbasierte Modell-Rankings und Statistiken nach Nutzung
Vergleichen und analysieren Sie den tatsächlichen Verbrauch und die Leistung von LLM-Modellen aus verschiedenen Perspektiven
Wöchentlich Nach Modell Modell-Effizienz-Ranking (kostenlose Modelle ausgeschlossen) TOP 10
Leitfaden für Effizienz-Ranking-Indikatoren
Effizienz-Rankings werden basierend auf dem Verhältnis Ausgabe-Token / Eingabe-Token berechnet. Je niedriger dieses Verhältnis ist, desto effizienter arbeitet das Modell.
Diese Metrik ist besonders bedeutsam bei Aufgaben wie Dokumentenbearbeitung, Code-Refactoring und Datenanalyse. Hocheffiziente Modelle neigen dazu, nur die notwendigen Teile aus den vom Benutzer bereitgestellten Informationen genau zu extrahieren und prägnant zu antworten, wodurch unnötiger Token-Verbrauch reduziert und eine kosteneffiziente AI-Nutzung ermöglicht wird. Ein niedriges Effizienzverhältnis bedeutet jedoch nicht unbedingt bessere Leistung. Einige komplexe Aufgaben erfordern möglicherweise mehr Output-Token, und wenn detaillierte Erklärungen oder umfassende Informationsbereitstellung erforderlich sind, kann ein höheres Effizienzverhältnis tatsächlich wünschenswert sein. Daher sollte diese Metrik entsprechend der Natur und dem Zweck der Aufgabe interpretiert werden.
| Rang | Modellname | Eingabe-Token | Ausgabe-Token | Effizienz-Verhältnis |
|---|---|---|---|---|
| 1 | meta-llama/llama-guard-4-12b | 498.90M | 897.64K | 0.0018 |
| 2 | qwen/qwen3-coder-480b-a35b-07-25 | 148.2B | 1.8B | 0.012 |
| 3 | anthropic/claude-4-sonnet-20250522 | 527.1B | 10.7B | 0.0204 |
| 4 | anthropic/claude-4.1-opus-20250805 | 27.8B | 596.22M | 0.0214 |
| 5 | mistralai/devstral-small-2507 | 793.20M | 17.11M | 0.0216 |
| 6 | qwen/qwen-turbo-2024-11-01 | 1.1B | 24.14M | 0.0217 |
| 7 | mistralai/devstral-medium-2507 | 242.31M | 5.41M | 0.0223 |
| 8 | neversleep/llama-3.1-lumimaid-8b | 823.74M | 18.88M | 0.0229 |
| 9 | openai/gpt-3.5-turbo-16k | 93.43M | 2.27M | 0.0243 |
| 10 | mistralai/mistral-tiny | 2.4B | 61.29M | 0.0251 |