Dolphin 2.6 Mixtral 8x7B 🐬 AIモデルの詳細情報と価格を確認してください
コンテキスト 長さ 32,768 トークン、 cognitivecomputations から 提供
32,768
コンテキストトークン
$0.00
プロンプト価格
$0.00
出力価格
0/16
機能サポート
モデル紹介
This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored
基本情報
開発者
cognitivecomputations
モデルシリーズ
Mistral
リリース日
2023-12-21
コンテキスト長
32,768 トークン
バリアント
standard
価格情報
プロンプトトークン
$0.00 / 1M トークン
完了トークン
$0.00 / 1M トークン
サポート機能
未対応 (16)
画像入力
Top K
シード
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
レスポンス形式
Min P
Logitバイアス
ツール使用
Logprobs
Top Logprobs
構造化出力
推論
Web検索オプション
Top A