Dolphin 2.6 Mixtral 8x7B 🐬 AIモデルの詳細情報と価格を確認してください

コンテキスト 長さ 32,768 トークン、 cognitivecomputations から 提供

32,768
コンテキストトークン
$0.00
プロンプト価格
$0.00
出力価格
0/16
機能サポート

モデル紹介

This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored

基本情報

開発者
cognitivecomputations
モデルシリーズ
Mistral
リリース日
2023-12-21
コンテキスト長
32,768 トークン
バリアント
standard

価格情報

プロンプトトークン
$0.00 / 1M トークン
完了トークン
$0.00 / 1M トークン

サポート機能

未対応 (16)

画像入力
Top K
シード
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
レスポンス形式
Min P
Logitバイアス
ツール使用
Logprobs
Top Logprobs
構造化出力
推論
Web検索オプション
Top A

実際の使用量統計

最近の使用量データがありません。

同一作者モデル (cognitivecomputations)

Dolphin3.0 R1 Mistral 24B (free)
32,768 トークン
無料
Dolphin3.0 Mistral 24B (free)
32,768 トークン
無料
Dolphin Llama 3 70B 🐬
8,192 トークン
$0.00 / $0.00
Dolphin 2.9.2 Mixtral 8x22B 🐬
16,000 トークン
$0.90 / $0.90

類似価格帯モデル

Jamba 1.5 Large
ai21
256,000 トークン
$0.00 / $0.00
Deepseek R1 0528 Qwen3 8B (free)
deepseek
131,072 トークン
$0.00 / $0.00
Gemma 1 2B
google
8,192 トークン
$0.00 / $0.00
R1 0528 (free)
deepseek
163,840 トークン
$0.00 / $0.00
Sarvam-M (free)
sarvamai
32,768 トークン
$0.00 / $0.00