Hermes 2 Mixtral 8x7B DPO AIモデルの詳細情報と価格を確認してください

コンテキスト 長さ 32,768 トークン、 nousresearch から 提供

32,768
コンテキストトークン
$0.60
プロンプト価格
$0.60
出力価格
7/16
機能サポート

モデル紹介

Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe

基本情報

開発者
nousresearch
モデルシリーズ
Mistral
リリース日
2024-01-16
コンテキスト長
32,768 トークン
最大完了トークン
2,048 トークン
バリアント
standard

価格情報

プロンプトトークン
$0.60 / 1M トークン
完了トークン
$0.60 / 1M トークン

サポート機能

サポート済み (7)

Top K
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
レスポンス形式
Min P
Logitバイアス

未対応 (9)

画像入力
シード
ツール使用
Logprobs
Top Logprobs
構造化出力
推論
Web検索オプション
Top A

実際の使用量統計

#281
全345個のモデル中
41.44M
過去30日間の総トークン数
1.38M
1日平均使用量
21%
週間使用量変化

過去30日間の使用量推移

同一作者モデル (nousresearch)

DeepHermes 3 Mistral 24B Preview (free)
32,768 トークン
無料
DeepHermes 3 Llama 3 8B Preview (free)
131,072 トークン
無料
Hermes 3 70B Instruct
131,072 トークン
$0.12 / $0.30
Hermes 3 405B Instruct
131,072 トークン
$0.70 / $0.80
Hermes 2 Theta 8B
16,384 トークン
$0.00 / $0.00

類似価格帯モデル

WizardLM-2 8x22B
microsoft
65,536 トークン
$0.48 / $0.48
UnslopNemo 12B
thedrummer
32,000 トークン
$0.45 / $0.45
Arcee Blitz
arcee-ai
32,768 トークン
$0.45 / $0.75