Mixtral 8x7B Instruct AIモデルの詳細情報と価格を確認してください
コンテキスト 長さ 32,768 トークン、 mistralai から 提供
32,768
コンテキストトークン
$0.40
プロンプト価格
$0.40
出力価格
8/16
機能サポート
モデル紹介
Mixtral 8x7B Instruct is a pretrained generative Sparse Mixture of Experts, by Mistral AI, for chat and instruction use. Incorporates 8 experts (feed-forward networks) for a total of 47 billion parameters. Instruct model fine-tuned by Mistral. #moe
基本情報
開発者
mistralai
モデルシリーズ
Mistral
リリース日
2023-12-10
コンテキスト長
32,768 トークン
最大完了トークン
16,384 トークン
バリアント
standard
価格情報
プロンプトトークン
$0.40 / 1M トークン
完了トークン
$0.40 / 1M トークン
データポリシー
サポート機能
サポート済み (8)
Top K
シード
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
レスポンス形式
Min P
ツール使用
未対応 (8)
画像入力
Logitバイアス
Logprobs
Top Logprobs
構造化出力
推論
Web検索オプション
Top A
実際の使用量統計
#94
全353個のモデル中
7.9B
過去30日間の総トークン数
262.69M
1日平均使用量
9%
週間使用量変化