Hermes 2 Mixtral 8x7B DPO Consulta la información detallada y precios de los modelos de AI
Contexto Longitud 32,768 tokens, nousresearch de proporcionado
32,768
Tokens de Contexto
$0.60
Precio del Prompt
$0.60
Precio de salida
7/16
Soporte de Funciones
Introducción del Modelo
Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe
Información Básica
Desarrollador
nousresearch
Serie de Modelos
Mistral
Fecha de lanzamiento
2024-01-16
Longitud de Contexto
32,768 tokens
Tokens de Finalización Máximos
2,048 tokens
Variante
standard
Información de Precios
Tokens de Prompt
$0.60 / 1M tokens
Tokens de Completado
$0.60 / 1M tokens
Política de Datos
Funciones Compatibles
Compatible (7)
Top K
Penalización de Frecuencia
Penalización de Presencia
Penalización de Repetición
Formato de Respuesta
Min P
Sesgo Logit
No compatible (9)
Entrada de Imagen
Seed
Uso de Herramientas
Logprobs
Top Logprobs
Salidas Estructuradas
Razonamiento
Opciones de Búsqueda Web
Top A
Estadísticas de Uso Real
#281
De 345 modelos en total
41.44M
Total de Tokens Últimos 30 Días
1.38M
Uso Promedio Diario
21%
Cambio de Uso Semanal