LLM-Modell-Ranking Echtzeitbasierte Modell-Rankings und Statistiken nach Nutzung
Vergleichen und analysieren Sie den tatsächlichen Verbrauch und die Leistung von LLM-Modellen aus verschiedenen Perspektiven
Täglich Nach Modell Modell-Effizienz-Ranking (kostenlose Modelle ausgeschlossen) TOP 10
Leitfaden für Effizienz-Ranking-Indikatoren
Effizienz-Rankings werden basierend auf dem Verhältnis Ausgabe-Token / Eingabe-Token berechnet. Je niedriger dieses Verhältnis ist, desto effizienter arbeitet das Modell.
Diese Metrik ist besonders bedeutsam bei Aufgaben wie Dokumentenbearbeitung, Code-Refactoring und Datenanalyse. Hocheffiziente Modelle neigen dazu, nur die notwendigen Teile aus den vom Benutzer bereitgestellten Informationen genau zu extrahieren und prägnant zu antworten, wodurch unnötiger Token-Verbrauch reduziert und eine kosteneffiziente AI-Nutzung ermöglicht wird. Ein niedriges Effizienzverhältnis bedeutet jedoch nicht unbedingt bessere Leistung. Einige komplexe Aufgaben erfordern möglicherweise mehr Output-Token, und wenn detaillierte Erklärungen oder umfassende Informationsbereitstellung erforderlich sind, kann ein höheres Effizienzverhältnis tatsächlich wünschenswert sein. Daher sollte diese Metrik entsprechend der Natur und dem Zweck der Aufgabe interpretiert werden.
| Rang | Modellname | Eingabe-Token | Ausgabe-Token | Effizienz-Verhältnis | 
|---|---|---|---|---|
| 1 | meta-llama/llama-guard-4-12b | 115.96M | 193.95K | 0.0017 | 
| 2 | qwen/qwen3-coder-480b-a35b-07-25 | 27.2B | 320.65M | 0.0118 | 
| 3 | mistralai/devstral-small-2507 | 326.56M | 4.19M | 0.0128 | 
| 4 | qwen/qwen2.5-vl-72b-instruct | 582.08M | 9.29M | 0.016 | 
| 5 | meta-llama/llama-3.2-90b-vision-instruct | 58.41M | 1.01M | 0.0174 | 
| 6 | neversleep/llama-3.1-lumimaid-8b | 152.19M | 3.15M | 0.0207 | 
| 7 | anthropic/claude-4-sonnet-20250522 | 100.7B | 2.1B | 0.0209 | 
| 8 | anthropic/claude-4.1-opus-20250805 | 5.7B | 121.31M | 0.0214 | 
| 9 | anthropic/claude-3-7-sonnet-20250219 | 36.9B | 878.93M | 0.0238 | 
| 10 | mistralai/mistral-large-2411 | 175.74M | 4.81M | 0.0274 |