Hermes 2 Mixtral 8x7B DPO 查看AI模型的詳細資訊和價格
上下文 長度 32,768 代幣, nousresearch 來自 提供
32,768
上下文權杖
$0.60
提示價格
$0.60
輸出價格
7/16
功能支援
模型介紹
Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe
基本資訊
開發商
nousresearch
模型系列
Mistral
發布日期
2024-01-16
上下文長度
32,768 令牌
最大完成權杖
2,048 令牌
變體
standard
價格資訊
提示令牌
$0.60 / 1M 代幣
完成令牌
$0.60 / 1M 代幣
支援功能
支援 (7)
Top K
頻率懲罰
存在懲罰
重複懲罰
回應格式
Min P
Logit偏置
不支援 (9)
圖像輸入
種子
工具使用
Logprobs
Top Logprobs
結構化輸出
推理
網路搜尋選項
Top A
實際使用量統計
#281
總共 345 個模型中
41.44M
最近30天總Token數
1.38M
日均使用量
21%
週使用量變化