R1 Distill Llama 70B (free) Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 8,192 tokens, deepseek de fourni
8,192
Tokens de Contexte
Gratuit
Prix du Prompt
Gratuit
Prix de sortie
8/16
Support de Fonctionnalités
Présentation du Modèle
DeepSeek R1 Distill Llama 70B is a distilled large language model based on [Llama-3.3-70B-Instruct](/meta-llama/llama-3.3-70b-instruct), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). The model combines advanced distillation techniques to achieve high performance across multiple benchmarks, including: - AIME 2024 pass@1: 70.0 - MATH-500 pass@1: 94.5 - CodeForces Rating: 1633 The model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Informations de Base
Développeur
deepseek
Série de Modèles
Llama3
Date de sortie
2025-01-23
Longueur de Contexte
8,192 tokens
Tokens de Complétion Maximum
4,096 tokens
Variante
free
Informations sur les Prix
Ce modèle est gratuit
Politique de Données
Fonctionnalités Prises en Charge
Pris en charge (8)
Top K
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Format de Réponse
Min P
Biais Logit
Raisonnement
Non pris en charge (8)
Entrée d'Image
Seed
Utilisation d'Outils
Logprobs
Top Logprobs
Sorties Structurées
Options de Recherche Web
Top A
Autres Variantes
Statistiques d'Utilisation Réelle
#123
Sur 346 modèles au total
2.3B
Total des Tokens des 30 derniers jours
77.40M
Usage Moyen Quotidien
76%
Changement d'Usage Hebdomadaire