LLM 모델 랭킹 실시간 사용량 기반 모델 순위 및 통계
다양한 관점에서 LLM 모델의 실제 사용량과 성능을 비교하고 분석해보세요
378+
추적 모델
102+
제작사
8+
카테고리
06.09
최신 데이터
일간 모델별 모델 효율성 순위 (무료 모델 제외) TOP 10
효율성 순위 지표 안내
효율성 순위는 출력 토큰 / 입력 토큰 비율을 기준으로 산출됩니다. 이 비율이 낮을수록 모델이 더 효율적으로 작동한다고 볼 수 있습니다.
이 지표는 특히 문서 편집, 코드 리팩토링, 데이터 분석 등의 작업에서 중요한 의미를 가집니다. 효율성이 높은 모델은 사용자가 제공한 정보에서 필요한 부분만 정확하게 추출하여 간결하게 응답하는 경향이 있어, 불필요한 토큰 소비를 줄이고 비용 효율적인 AI 활용이 가능합니다. 그러나 낮은 효율성 비율이 반드시 더 나은 성능을 의미하지는 않습니다. 일부 복잡한 작업에서는 더 많은 출력 토큰이 필요할 수 있으며, 상세한 설명이나 광범위한 정보 제공이 필요한 경우에는 높은 효율성 비율이 오히려 바람직할 수 있습니다. 따라서 이 지표는 작업의 특성과 목적에 맞게 해석해야 합니다.
순위 | 모델명 | 입력 토큰 | 출력 토큰 | 효율성 비율 |
---|---|---|---|---|
1 | meta-llama/llama-guard-4-12b | 346.25M | 358.77K | 0.001 |
2 | openai/codex-mini | 42.99M | 602.36K | 0.0136 |
3 | arcee-ai/virtuoso-large | 1.78M | 27.95K | 0.0157 |
4 | arcee-ai/spotlight | 11.97M | 188.48K | 0.0157 |
5 | perplexity/sonar-deep-research | 1.28M | 1.13M | 0.0162 |
6 | mistralai/devstral-small-2505 | 279.44M | 4.82M | 0.0173 |
7 | openai/o4-mini-high-2025-04-16 | 232.15M | 4.99M | 0.0189 |
8 | neversleep/llama-3.1-lumimaid-8b | 242.03M | 4.77M | 0.0197 |
9 | arcee-ai/caller-large | 1.15M | 24.21K | 0.0211 |
10 | meta-llama/llama-3.2-1b-instruct | 1.1B | 23.32M | 0.0214 |