R1 Distill Llama 70B (free) AIモデルの詳細情報と価格を確認してください
コンテキスト 長さ 8,192 トークン、 deepseek から 提供
8,192
コンテキストトークン
無料
プロンプト価格
無料
出力価格
8/16
機能サポート
モデル紹介
DeepSeek R1 Distill Llama 70B is a distilled large language model based on [Llama-3.3-70B-Instruct](/meta-llama/llama-3.3-70b-instruct), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). The model combines advanced distillation techniques to achieve high performance across multiple benchmarks, including: - AIME 2024 pass@1: 70.0 - MATH-500 pass@1: 94.5 - CodeForces Rating: 1633 The model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
基本情報
開発者
deepseek
モデルシリーズ
Llama3
リリース日
2025-01-23
コンテキスト長
8,192 トークン
最大完了トークン
4,096 トークン
バリアント
free
価格情報
このモデルは無料で使用できます
データポリシー
サポート機能
サポート済み (8)
Top K
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
レスポンス形式
Min P
Logitバイアス
推論
未対応 (8)
画像入力
シード
ツール使用
Logprobs
Top Logprobs
構造化出力
Web検索オプション
Top A
その他のバリエーション
実際の使用量統計
#123
全346個のモデル中
2.3B
過去30日間の総トークン数
77.40M
1日平均使用量
76%
週間使用量変化