LLM 模型排名 基于实时使用量的模型排名和统计
从多个角度比较和分析LLM模型的实际使用量和性能
378+
追踪模型
102+
制作商
8+
类别
06.09
最新数据
每日 按模型 模型效率排名 (不包括免费模型) 前 10 名
效率排名指标指南
效率排名基于输出令牌/输入令牌比率计算。该比率越低,模型运行效率越高。
该指标在文档编辑、代码重构、数据分析等任务中具有特别重要的意义。高效的模型倾向于从用户提供的信息中准确提取必要部分并简洁回应,减少不必要的token消耗,实现成本效益的AI利用。然而,低效率比不一定意味着更好的性能。某些复杂任务可能需要更多输出token,当需要详细说明或广泛信息提供时,较高的效率比实际上可能更为理想。因此,应根据任务的特性和目的来解释该指标。
排名 | 模型名称 | 输入令牌 | 输出令牌 | 效率比率 |
---|---|---|---|---|
1 | meta-llama/llama-guard-4-12b | 346.25M | 358.77K | 0.001 |
2 | openai/codex-mini | 42.99M | 602.36K | 0.0136 |
3 | arcee-ai/virtuoso-large | 1.78M | 27.95K | 0.0157 |
4 | arcee-ai/spotlight | 11.97M | 188.48K | 0.0157 |
5 | perplexity/sonar-deep-research | 1.28M | 1.13M | 0.0162 |
6 | mistralai/devstral-small-2505 | 279.44M | 4.82M | 0.0173 |
7 | openai/o4-mini-high-2025-04-16 | 232.15M | 4.99M | 0.0189 |
8 | neversleep/llama-3.1-lumimaid-8b | 242.03M | 4.77M | 0.0197 |
9 | arcee-ai/caller-large | 1.15M | 24.21K | 0.0211 |
10 | meta-llama/llama-3.2-1b-instruct | 1.1B | 23.32M | 0.0214 |