Dolphin 2.6 Mixtral 8x7B 🐬 Confira informações detalhadas e preços dos modelos de AI
Contexto Comprimento 32,768 tokens, cognitivecomputations de fornecido
32,768
Tokens de Contexto
$0.00
Preço do Prompt
$0.00
Preço de saída
0/16
Suporte de Recursos
Introdução do Modelo
This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored
Informações Básicas
Desenvolvedor
cognitivecomputations
Série de Modelos
Mistral
Data de lançamento
2023-12-21
Comprimento do Contexto
32,768 tokens
Variante
standard
Informações de Preços
Tokens de Prompt
$0.00 / 1M tokens
Tokens de Conclusão
$0.00 / 1M tokens
Recursos Suportados
Não suportado (16)
Entrada de Imagem
Top K
Seed
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Formato de Resposta
Min P
Viés Logit
Uso de Ferramentas
Logprobs
Top Logprobs
Saídas Estruturadas
Raciocínio
Opções de Pesquisa Web
Top A