LLM 模型排名 基於即時使用量的模型排名和統計
從多個角度比較和分析LLM模型的實際使用量和效能
378+
追蹤模型
102+
製作商
8+
類別
06.09
最新資料
每日 按模型 模型效率排名 (不包括免費模型) 前 10 名
效率排名指標指南
效率排名基於輸出令牌/輸入令牌比率計算。該比率越低,模型運行效率越高。
該指標在文件編輯、程式碼重構、資料分析等任務中具有特別重要的意義。高效率的模型傾向於從使用者提供的資訊中精確提取必要部分並簡潔回應,減少不必要的token消耗,實現成本效益的AI利用。然而,低效率比例不一定意味著更好的效能。某些複雜任務可能需要更多輸出token,當需要詳細說明或廣泛資訊提供時,較高的效率比例實際上可能更為理想。因此,應根據任務的特性和目的來解釋該指標。
排名 | 模型名稱 | 輸入令牌 | 輸出權杖 | 效率比率 |
---|---|---|---|---|
1 | meta-llama/llama-guard-4-12b | 338.63M | 350.58K | 0.001 |
2 | openai/codex-mini | 41.32M | 480.13K | 0.0113 |
3 | arcee-ai/virtuoso-large | 1.78M | 26.34K | 0.0148 |
4 | arcee-ai/spotlight | 11.97M | 188.48K | 0.0157 |
5 | perplexity/sonar-deep-research | 1.15M | 1.04M | 0.0163 |
6 | mistralai/devstral-small-2505 | 275.39M | 4.73M | 0.0172 |
7 | openai/o4-mini-high-2025-04-16 | 208.65M | 4.57M | 0.0192 |
8 | neversleep/llama-3.1-lumimaid-8b | 215.23M | 4.15M | 0.0193 |
9 | arcee-ai/caller-large | 1.14M | 22.24K | 0.0195 |
10 | meta-llama/llama-guard-2-8b | 36.08K | 771 | 0.0214 |