R1 Distill Qwen 32B Consulta la información detallada y precios de los modelos de AI
Contexto Longitud 131,072 tokens, deepseek de proporcionado
131,072
Tokens de Contexto
$0.12
Precio del Prompt
$0.18
Precio de salida
8/16
Soporte de Funciones
Introducción del Modelo
DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). It outperforms OpenAI's o1-mini across various benchmarks, achieving new state-of-the-art results for dense models.\n\nOther benchmark results include:\n\n- AIME 2024 pass@1: 72.6\n- MATH-500 pass@1: 94.3\n- CodeForces Rating: 1691\n\nThe model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Información Básica
Desarrollador
deepseek
Serie de Modelos
Qwen
Fecha de lanzamiento
2025-01-29
Longitud de Contexto
131,072 tokens
Tokens de Finalización Máximos
16,384 tokens
Variante
standard
Información de Precios
Tokens de Prompt
$0.12 / 1M tokens
Tokens de Completado
$0.18 / 1M tokens
Política de Datos
Funciones Compatibles
Compatible (8)
Top K
Seed
Penalización de Frecuencia
Penalización de Presencia
Penalización de Repetición
Formato de Respuesta
Min P
Razonamiento
No compatible (8)
Entrada de Imagen
Sesgo Logit
Uso de Herramientas
Logprobs
Top Logprobs
Salidas Estructuradas
Opciones de Búsqueda Web
Top A
Otras Variantes
Estadísticas de Uso Real
#129
De 345 modelos en total
1.9B
Total de Tokens Últimos 30 Días
62.80M
Uso Promedio Diario
42%
Cambio de Uso Semanal