R1 Distill Qwen 32B (free) Consulta la información detallada y precios de los modelos de AI
Contexto Longitud 16,000 tokens, deepseek de proporcionado
16,000
Tokens de Contexto
Gratis
Precio del Prompt
Gratis
Precio de salida
1/16
Soporte de Funciones
Introducción del Modelo
DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). It outperforms OpenAI's o1-mini across various benchmarks, achieving new state-of-the-art results for dense models.\n\nOther benchmark results include:\n\n- AIME 2024 pass@1: 72.6\n- MATH-500 pass@1: 94.3\n- CodeForces Rating: 1691\n\nThe model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Información Básica
Desarrollador
deepseek
Serie de Modelos
Qwen
Fecha de lanzamiento
2025-01-29
Longitud de Contexto
16,000 tokens
Tokens de Finalización Máximos
16,000 tokens
Variante
free
Información de Precios
Este modelo es gratuito
Política de Datos
Funciones Compatibles
Compatible (1)
Razonamiento
No compatible (15)
Entrada de Imagen
Top K
Seed
Penalización de Frecuencia
Penalización de Presencia
Penalización de Repetición
Formato de Respuesta
Min P
Sesgo Logit
Uso de Herramientas
Logprobs
Top Logprobs
Salidas Estructuradas
Opciones de Búsqueda Web
Top A
Otras Variantes
Estadísticas de Uso Real
#140
De 346 modelos en total
1.4B
Total de Tokens Últimos 30 Días
47.85M
Uso Promedio Diario
81%
Cambio de Uso Semanal