LLM-Modell-Ranking Echtzeitbasierte Modell-Rankings und Statistiken nach Nutzung
Vergleichen und analysieren Sie den tatsächlichen Verbrauch und die Leistung von LLM-Modellen aus verschiedenen Perspektiven
Monatlich Nach Modell Modell-Effizienz-Ranking (kostenlose Modelle ausgeschlossen) TOP 10
Leitfaden für Effizienz-Ranking-Indikatoren
Effizienz-Rankings werden basierend auf dem Verhältnis Ausgabe-Token / Eingabe-Token berechnet. Je niedriger dieses Verhältnis ist, desto effizienter arbeitet das Modell.
Diese Metrik ist besonders bedeutsam bei Aufgaben wie Dokumentenbearbeitung, Code-Refactoring und Datenanalyse. Hocheffiziente Modelle neigen dazu, nur die notwendigen Teile aus den vom Benutzer bereitgestellten Informationen genau zu extrahieren und prägnant zu antworten, wodurch unnötiger Token-Verbrauch reduziert und eine kosteneffiziente AI-Nutzung ermöglicht wird. Ein niedriges Effizienzverhältnis bedeutet jedoch nicht unbedingt bessere Leistung. Einige komplexe Aufgaben erfordern möglicherweise mehr Output-Token, und wenn detaillierte Erklärungen oder umfassende Informationsbereitstellung erforderlich sind, kann ein höheres Effizienzverhältnis tatsächlich wünschenswert sein. Daher sollte diese Metrik entsprechend der Natur und dem Zweck der Aufgabe interpretiert werden.
| Rang | Modellname | Eingabe-Token | Ausgabe-Token | Effizienz-Verhältnis |
|---|---|---|---|---|
| 1 | meta-llama/llama-guard-4-12b | 2.3B | 9.41M | 0.0041 |
| 2 | qwen/qwen3-coder-480b-a35b-07-25 | 484.7B | 6.2B | 0.0127 |
| 3 | anthropic/claude-4-opus-20250522 | 110.1B | 1.9B | 0.0171 |
| 4 | anthropic/claude-4-sonnet-20250522 | 2,343.1B | 44.7B | 0.019 |
| 5 | anthropic/claude-4.1-opus-20250805 | 61.9B | 1.3B | 0.0217 |
| 6 | neversleep/llama-3.1-lumimaid-8b | 2.1B | 55.86M | 0.026 |
| 7 | mistralai/mistral-tiny | 9.2B | 248.61M | 0.0271 |
| 8 | qwen/qwen-vl-plus | 475.23M | 13.04M | 0.0274 |
| 9 | anthropic/claude-3-5-haiku-20241022 | 5.0B | 153.03M | 0.0308 |
| 10 | thedrummer/anubis-70b-v1.1 | 4.9B | 168.11M | 0.0343 |