R1 Distill Qwen 7B 查看AI模型的詳細資訊和價格
上下文 長度 131,072 代幣, deepseek 來自 提供
131,072
上下文權杖
$0.10
提示價格
$0.20
輸出價格
2/16
功能支援
效率 第1位
模型介紹
DeepSeek-R1-Distill-Qwen-7B is a 7 billion parameter dense language model distilled from DeepSeek-R1, leveraging reinforcement learning-enhanced reasoning data generated by DeepSeek's larger models. The distillation process transfers advanced reasoning, math, and code capabilities into a smaller, more efficient model architecture based on Qwen2.5-Math-7B. This model demonstrates strong performance across mathematical benchmarks (92.8% pass@1 on MATH-500), coding tasks (Codeforces rating 1189), and general reasoning (49.1% pass@1 on GPQA Diamond), achieving competitive accuracy relative to larger models while maintaining smaller inference costs.
基本資訊
開發商
deepseek
模型系列
Qwen
發布日期
2025-05-30
上下文長度
131,072 令牌
變體
standard
價格資訊
提示令牌
$0.10 / 1M 代幣
完成令牌
$0.20 / 1M 代幣
資料政策
支援功能
支援 (2)
種子
推理
不支援 (14)
圖像輸入
Top K
頻率懲罰
存在懲罰
重複懲罰
回應格式
Min P
Logit偏置
工具使用
Logprobs
Top Logprobs
結構化輸出
網路搜尋選項
Top A
實際使用量統計
#196
總共 346 個模型中
330.11M
最近30天總Token數
17.37M
日均使用量
78%
週使用量變化