Dolphin 2.6 Mixtral 8x7B 🐬 Consulta la información detallada y precios de los modelos de AI
Contexto Longitud 32,768 tokens, cognitivecomputations de proporcionado
32,768
Tokens de Contexto
$0.00
Precio del Prompt
$0.00
Precio de salida
0/16
Soporte de Funciones
Introducción del Modelo
This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored
Información Básica
Desarrollador
cognitivecomputations
Serie de Modelos
Mistral
Fecha de lanzamiento
2023-12-21
Longitud de Contexto
32,768 tokens
Variante
standard
Información de Precios
Tokens de Prompt
$0.00 / 1M tokens
Tokens de Completado
$0.00 / 1M tokens
Funciones Compatibles
No compatible (16)
Entrada de Imagen
Top K
Seed
Penalización de Frecuencia
Penalización de Presencia
Penalización de Repetición
Formato de Respuesta
Min P
Sesgo Logit
Uso de Herramientas
Logprobs
Top Logprobs
Salidas Estructuradas
Razonamiento
Opciones de Búsqueda Web
Top A