Wöchentlich Nach Modell Modell-Effizienz-Ranking (kostenlose Modelle ausgeschlossen) TOP 10

Leitfaden für Effizienz-Ranking-Indikatoren

Effizienz-Rankings werden basierend auf dem Verhältnis Ausgabe-Token / Eingabe-Token berechnet. Je niedriger dieses Verhältnis ist, desto effizienter arbeitet das Modell.

Diese Metrik ist besonders bedeutsam bei Aufgaben wie Dokumentenbearbeitung, Code-Refactoring und Datenanalyse. Hocheffiziente Modelle neigen dazu, nur die notwendigen Teile aus den vom Benutzer bereitgestellten Informationen genau zu extrahieren und prägnant zu antworten, wodurch unnötiger Token-Verbrauch reduziert und eine kosteneffiziente AI-Nutzung ermöglicht wird. Ein niedriges Effizienzverhältnis bedeutet jedoch nicht unbedingt bessere Leistung. Einige komplexe Aufgaben erfordern möglicherweise mehr Output-Token, und wenn detaillierte Erklärungen oder umfassende Informationsbereitstellung erforderlich sind, kann ein höheres Effizienzverhältnis tatsächlich wünschenswert sein. Daher sollte diese Metrik entsprechend der Natur und dem Zweck der Aufgabe interpretiert werden.

Rang Modellname Eingabe-Token Ausgabe-Token Effizienz-Verhältnis
1 meta-llama/llama-guard-4-12b 652.12M 844.20K 0.0013
2 perplexity/sonar-deep-research 8.13M 6.98M 0.0153
3 openai/codex-mini 151.92M 2.49M 0.0159
4 anthropic/claude-4-opus-20250522 17.0B 332.12M 0.0195
5 neversleep/llama-3.1-lumimaid-8b 1.1B 21.84M 0.0205
6 anthropic/claude-4-sonnet-20250522 204.1B 4.3B 0.0211
7 qwen/qwen-plus-2025-01-25 196.90M 4.23M 0.0215
8 openai/o4-mini-high-2025-04-16 1.4B 36.62M 0.0224
9 arcee-ai/spotlight 12.24M 287.41K 0.0235
10 meta-llama/llama-3.2-1b-instruct 5.4B 131.76M 0.0243