R1 Distill Llama 70B Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 131,072 tokens, deepseek de fourni
131,072
Tokens de Contexte
$0.03
Prix du Prompt
$0.10
Prix de sortie
10/16
Support de Fonctionnalités
programmation #18
académie #18
quiz #18
jeu de rôle #18
finance #18
science #18
santé #18
SEO #18
juridique #18
technologie #18
marketing #18
traduction #18
Raisonnement #7
Présentation du Modèle
DeepSeek R1 Distill Llama 70B is a distilled large language model based on [Llama-3.3-70B-Instruct](/meta-llama/llama-3.3-70b-instruct), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). The model combines advanced distillation techniques to achieve high performance across multiple benchmarks, including: - AIME 2024 pass@1: 70.0 - MATH-500 pass@1: 94.5 - CodeForces Rating: 1633 The model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Informations de Base
Développeur
deepseek
Série de Modèles
Llama3
Date de sortie
2025-01-23
Longueur de Contexte
131,072 tokens
Variante
standard
Informations sur les Prix
Jetons de Prompt
$0.03 / 1M jetons
Tokens de Complétion
$0.10 / 1M jetons
Politique de Données
Conditions d'utilisation
학습 정책
1
Fonctionnalités Prises en Charge
Pris en charge (10)
Top K
Seed
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Min P
Biais Logit
Logprobs
Top Logprobs
Raisonnement
Non pris en charge (6)
Entrée d'Image
Format de Réponse
Utilisation d'Outils
Sorties Structurées
Options de Recherche Web
Top A
Autres Variantes
Statistiques d'Utilisation Réelle
#70
Sur 353 modèles au total
19.7B
Total des Tokens des 30 derniers jours
658.17M
Usage Moyen Quotidien
44%
Changement d'Usage Hebdomadaire