R1 Distill Qwen 32B (free) Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 16,000 tokens, deepseek de fourni
16,000
Tokens de Contexte
Gratuit
Prix du Prompt
Gratuit
Prix de sortie
1/16
Support de Fonctionnalités
Présentation du Modèle
DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). It outperforms OpenAI's o1-mini across various benchmarks, achieving new state-of-the-art results for dense models.\n\nOther benchmark results include:\n\n- AIME 2024 pass@1: 72.6\n- MATH-500 pass@1: 94.3\n- CodeForces Rating: 1691\n\nThe model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Informations de Base
Développeur
deepseek
Série de Modèles
Qwen
Date de sortie
2025-01-29
Longueur de Contexte
16,000 tokens
Tokens de Complétion Maximum
16,000 tokens
Variante
free
Informations sur les Prix
Ce modèle est gratuit
Politique de Données
Fonctionnalités Prises en Charge
Pris en charge (1)
Raisonnement
Non pris en charge (15)
Entrée d'Image
Top K
Seed
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Format de Réponse
Min P
Biais Logit
Utilisation d'Outils
Logprobs
Top Logprobs
Sorties Structurées
Options de Recherche Web
Top A
Autres Variantes
Statistiques d'Utilisation Réelle
#146
Sur 345 modèles au total
1.0B
Total des Tokens des 30 derniers jours
34.60M
Usage Moyen Quotidien
82%
Changement d'Usage Hebdomadaire