Hermes 2 Mixtral 8x7B DPO AIモデルの詳細情報と価格を確認してください
コンテキスト 長さ 32,768 トークン、 nousresearch から 提供
32,768
コンテキストトークン
$0.60
プロンプト価格
$0.60
出力価格
7/16
機能サポート
モデル紹介
Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe
基本情報
開発者
nousresearch
モデルシリーズ
Mistral
リリース日
2024-01-16
コンテキスト長
32,768 トークン
最大完了トークン
2,048 トークン
バリアント
standard
価格情報
プロンプトトークン
$0.60 / 1M トークン
完了トークン
$0.60 / 1M トークン
データポリシー
サポート機能
サポート済み (7)
Top K
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
レスポンス形式
Min P
Logitバイアス
未対応 (9)
画像入力
シード
ツール使用
Logprobs
Top Logprobs
構造化出力
推論
Web検索オプション
Top A
実際の使用量統計
#281
全345個のモデル中
41.44M
過去30日間の総トークン数
1.38M
1日平均使用量
21%
週間使用量変化