R1 Distill Qwen 32B Confira informações detalhadas e preços dos modelos de AI
Contexto Comprimento 131,072 tokens, deepseek de fornecido
131,072
Tokens de Contexto
$0.12
Preço do Prompt
$0.18
Preço de saída
8/16
Suporte de Recursos
Introdução do Modelo
DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). It outperforms OpenAI's o1-mini across various benchmarks, achieving new state-of-the-art results for dense models.\n\nOther benchmark results include:\n\n- AIME 2024 pass@1: 72.6\n- MATH-500 pass@1: 94.3\n- CodeForces Rating: 1691\n\nThe model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Informações Básicas
Desenvolvedor
deepseek
Série de Modelos
Qwen
Data de lançamento
2025-01-29
Comprimento do Contexto
131,072 tokens
Tokens de Conclusão Máximos
16,384 tokens
Variante
standard
Informações de Preços
Tokens de Prompt
$0.12 / 1M tokens
Tokens de Conclusão
$0.18 / 1M tokens
Política de Dados
Recursos Suportados
Suportado (8)
Top K
Seed
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Formato de Resposta
Min P
Raciocínio
Não suportado (8)
Entrada de Imagem
Viés Logit
Uso de Ferramentas
Logprobs
Top Logprobs
Saídas Estruturadas
Opções de Pesquisa Web
Top A
Outras Variantes
Estatísticas de Uso Real
#129
De 345 modelos no total
1.9B
Total de Tokens Últimos 30 Dias
62.80M
Uso Médio Diário
42%
Mudança de Uso Semanal