Hermes 2 Mixtral 8x7B DPO Confira informações detalhadas e preços dos modelos de AI
Contexto Comprimento 32,768 tokens, nousresearch de fornecido
32,768
Tokens de Contexto
$0.60
Preço do Prompt
$0.60
Preço de saída
7/16
Suporte de Recursos
Introdução do Modelo
Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe
Informações Básicas
Desenvolvedor
nousresearch
Série de Modelos
Mistral
Data de lançamento
2024-01-16
Comprimento do Contexto
32,768 tokens
Tokens de Conclusão Máximos
2,048 tokens
Variante
standard
Informações de Preços
Tokens de Prompt
$0.60 / 1M tokens
Tokens de Conclusão
$0.60 / 1M tokens
Política de Dados
Recursos Suportados
Suportado (7)
Top K
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Formato de Resposta
Min P
Viés Logit
Não suportado (9)
Entrada de Imagem
Seed
Uso de Ferramentas
Logprobs
Top Logprobs
Saídas Estruturadas
Raciocínio
Opções de Pesquisa Web
Top A
Estatísticas de Uso Real
#281
De 345 modelos no total
41.44M
Total de Tokens Últimos 30 Dias
1.38M
Uso Médio Diário
21%
Mudança de Uso Semanal