Dolphin 2.6 Mixtral 8x7B 🐬 Confira informações detalhadas e preços dos modelos de AI

Contexto Comprimento 32,768 tokens, cognitivecomputations de fornecido

32,768
Tokens de Contexto
$0.00
Preço do Prompt
$0.00
Preço de saída
0/16
Suporte de Recursos

Introdução do Modelo

This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored

Informações Básicas

Desenvolvedor
cognitivecomputations
Série de Modelos
Mistral
Data de lançamento
2023-12-21
Comprimento do Contexto
32,768 tokens
Variante
standard

Informações de Preços

Tokens de Prompt
$0.00 / 1M tokens
Tokens de Conclusão
$0.00 / 1M tokens

Recursos Suportados

Não suportado (16)

Entrada de Imagem
Top K
Seed
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Formato de Resposta
Min P
Viés Logit
Uso de Ferramentas
Logprobs
Top Logprobs
Saídas Estruturadas
Raciocínio
Opções de Pesquisa Web
Top A

Estatísticas de Uso Real

Nenhum dado de uso recente disponível.

Modelos do Mesmo Autor (cognitivecomputations)

Dolphin3.0 R1 Mistral 24B (free)
32,768 tokens
Grátis
Dolphin3.0 Mistral 24B (free)
32,768 tokens
Grátis
Dolphin Llama 3 70B 🐬
8,192 tokens
$0.00 / $0.00
Dolphin 2.9.2 Mixtral 8x22B 🐬
16,000 tokens
$0.90 / $0.90

Modelos de Faixa de Preço Similar

Jamba 1.5 Large
ai21
256,000 tokens
$0.00 / $0.00
Deepseek R1 0528 Qwen3 8B (free)
deepseek
131,072 tokens
$0.00 / $0.00
Gemma 1 2B
google
8,192 tokens
$0.00 / $0.00
R1 0528 (free)
deepseek
163,840 tokens
$0.00 / $0.00
Sarvam-M (free)
sarvamai
32,768 tokens
$0.00 / $0.00