Dolphin 2.6 Mixtral 8x7B 🐬 查看AI模型的詳細資訊和價格

上下文 長度 32,768 代幣, cognitivecomputations 來自 提供

32,768
上下文權杖
$0.00
提示價格
$0.00
輸出價格
0/16
功能支援

模型介紹

This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored

基本資訊

開發商
cognitivecomputations
模型系列
Mistral
發布日期
2023-12-21
上下文長度
32,768 令牌
變體
standard

價格資訊

提示令牌
$0.00 / 1M 代幣
完成令牌
$0.00 / 1M 代幣

支援功能

不支援 (16)

圖像輸入
Top K
種子
頻率懲罰
存在懲罰
重複懲罰
回應格式
Min P
Logit偏置
工具使用
Logprobs
Top Logprobs
結構化輸出
推理
網路搜尋選項
Top A

實際使用量統計

暫無最近使用量資料。

同作者模型 (cognitivecomputations)

Dolphin3.0 R1 Mistral 24B (free)
32,768 令牌
免費
Dolphin3.0 Mistral 24B (free)
32,768 令牌
免費
Dolphin Llama 3 70B 🐬
8,192 令牌
$0.00 / $0.00
Dolphin 2.9.2 Mixtral 8x22B 🐬
16,000 令牌
$0.90 / $0.90

相似價位模型

Jamba 1.5 Large
ai21
256,000 令牌
$0.00 / $0.00
Deepseek R1 0528 Qwen3 8B (free)
deepseek
131,072 令牌
$0.00 / $0.00
Gemma 1 2B
google
8,192 令牌
$0.00 / $0.00
R1 0528 (free)
deepseek
163,840 令牌
$0.00 / $0.00
Sarvam-M (free)
sarvamai
32,768 令牌
$0.00 / $0.00