R1 Distill Qwen 32B (free) Confira informações detalhadas e preços dos modelos de AI
Contexto Comprimento 16,000 tokens, deepseek de fornecido
16,000
Tokens de Contexto
Grátis
Preço do Prompt
Grátis
Preço de saída
1/16
Suporte de Recursos
Introdução do Modelo
DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). It outperforms OpenAI's o1-mini across various benchmarks, achieving new state-of-the-art results for dense models.\n\nOther benchmark results include:\n\n- AIME 2024 pass@1: 72.6\n- MATH-500 pass@1: 94.3\n- CodeForces Rating: 1691\n\nThe model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Informações Básicas
Desenvolvedor
deepseek
Série de Modelos
Qwen
Data de lançamento
2025-01-29
Comprimento do Contexto
16,000 tokens
Tokens de Conclusão Máximos
16,000 tokens
Variante
free
Informações de Preços
Este modelo é gratuito
Política de Dados
Recursos Suportados
Suportado (1)
Raciocínio
Não suportado (15)
Entrada de Imagem
Top K
Seed
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Formato de Resposta
Min P
Viés Logit
Uso de Ferramentas
Logprobs
Top Logprobs
Saídas Estruturadas
Opções de Pesquisa Web
Top A
Outras Variantes
Estatísticas de Uso Real
#140
De 346 modelos no total
1.4B
Total de Tokens Últimos 30 Dias
47.85M
Uso Médio Diário
81%
Mudança de Uso Semanal