R1 Distill Qwen 7B AI 모델의 상세 정보와 가격을 확인하세요
컨텍스트 길이 131,072 토큰, deepseek 에서 제공
131,072
컨텍스트 토큰
$0.00
프롬프트 가격
$0.00
출력 가격
0/16
기능 지원
모델 소개
DeepSeek-R1-Distill-Qwen-7B is a 7 billion parameter dense language model distilled from DeepSeek-R1, leveraging reinforcement learning-enhanced reasoning data generated by DeepSeek's larger models. The distillation process transfers advanced reasoning, math, and code capabilities into a smaller, more efficient model architecture based on Qwen2.5-Math-7B. This model demonstrates strong performance across mathematical benchmarks (92.8% pass@1 on MATH-500), coding tasks (Codeforces rating 1189), and general reasoning (49.1% pass@1 on GPQA Diamond), achieving competitive accuracy relative to larger models while maintaining smaller inference costs.
기본 정보
개발사
deepseek
모델 시리즈
Qwen
출시일
2025-05-30
컨텍스트 길이
131,072 토큰
변형
standard
가격 정보
프롬프트 토큰
$0.00 / 1M 토큰
완료 토큰
$0.00 / 1M 토큰
지원 기능
미지원 (16)
이미지 입력
Top K
Seed
Frequency Penalty
Presence Penalty
Repetition Penalty
Response Format
Min P
Logit Bias
도구 사용
Logprobs
Top Logprobs
구조화된 출력
추론
Web Search Options
Top A
실제 사용량 통계
#236
전체 353개 모델 중
269.44M
최근 30일 총 토큰
11.71M
일평균 사용량
85%
주간 사용량 변화