R1 Distill Llama 8B Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 32,000 tokens, deepseek de fourni
32,000
Tokens de Contexte
$0.04
Prix du Prompt
$0.04
Prix de sortie
8/16
Support de Fonctionnalités
Présentation du Modèle
DeepSeek R1 Distill Llama 8B is a distilled large language model based on [Llama-3.1-8B-Instruct](/meta-llama/llama-3.1-8b-instruct), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). The model combines advanced distillation techniques to achieve high performance across multiple benchmarks, including: - AIME 2024 pass@1: 50.4 - MATH-500 pass@1: 89.1 - CodeForces Rating: 1205 The model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models. Hugging Face: - [Llama-3.1-8B](https://huggingface.co/meta-llama/Llama-3.1-8B) - [DeepSeek-R1-Distill-Llama-8B](https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Llama-8B) |
Informations de Base
Développeur
deepseek
Série de Modèles
Llama3
Date de sortie
2025-02-07
Longueur de Contexte
32,000 tokens
Tokens de Complétion Maximum
32,000 tokens
Variante
standard
Informations sur les Prix
Jetons de Prompt
$0.04 / 1M jetons
Tokens de Complétion
$0.04 / 1M jetons
Politique de Données
Fonctionnalités Prises en Charge
Pris en charge (8)
Top K
Seed
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Min P
Biais Logit
Raisonnement
Non pris en charge (8)
Entrée d'Image
Format de Réponse
Utilisation d'Outils
Logprobs
Top Logprobs
Sorties Structurées
Options de Recherche Web
Top A
Statistiques d'Utilisation Réelle
#132
Sur 346 modèles au total
1.8B
Total des Tokens des 30 derniers jours
60.36M
Usage Moyen Quotidien
57%
Changement d'Usage Hebdomadaire