LLMモデルランキング リアルタイム使用量ベースのモデルランキングと統計
様々な観点からLLMモデルの実際の使用量とパフォーマンスを比較・分析してみましょう
439+
トラッキングモデル
112+
制作会社
8+
カテゴリー
08.03
最新データ
日間 モデル別 モデル効率ランキング (無料モデルを除く) TOP 10
効率性ランキング指標ガイド
効率性ランキングは出力トークン/入力トークンの比率に基づいて算出されます。この比率が低いほど、モデルがより効率的に動作していると考えられます。
この指標は、特に文書編集、コードリファクタリング、データ分析などのタスクにおいて重要な意味を持ちます。効率性の高いモデルは、ユーザーが提供した情報から必要な部分のみを正確に抽出して簡潔に応答する傾向があり、不要なトークン消費を削減し、コスト効率的なAI活用を可能にします。しかし、低い効率性比率が必ずしもより良いパフォーマンスを意味するわけではありません。一部の複雑なタスクでは、より多くの出力トークンが必要な場合があり、詳細な説明や広範囲な情報提供が必要な場合には、高い効率性比率がむしろ望ましい場合があります。したがって、この指標はタスクの特性と目的に応じて解釈する必要があります。
順位 | モデル名 | 入力トークン | 出力トークン | 効率比率 |
---|---|---|---|---|
1 | meta-llama/llama-guard-4-12b | 46.67M | 85.73K | 0.0018 |
2 | qwen/qwen3-coder-480b-a35b-07-25 | 23.7B | 320.17M | 0.0135 |
3 | anthropic/claude-4-opus-20250522 | 5.8B | 79.13M | 0.0137 |
4 | anthropic/claude-3-5-haiku-20241022 | 167.52M | 2.66M | 0.0159 |
5 | anthropic/claude-4-sonnet-20250522 | 60.8B | 1.1B | 0.0176 |
6 | z-ai/glm-4.5 | 7.7B | 159.73M | 0.0205 |
7 | meta-llama/llama-guard-2-8b | 48.85K | 1.11K | 0.0227 |
8 | qwen/qwen2.5-vl-72b-instruct | 198.26M | 4.74M | 0.0239 |
9 | mistralai/mistral-tiny | 291.67M | 8.13M | 0.0279 |
10 | qwen/qwen-turbo-2024-11-01 | 107.61M | 3.10M | 0.0288 |