Hermes 2 Mixtral 8x7B DPO Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 32,768 tokens, nousresearch de fourni
32,768
Tokens de Contexte
$0.60
Prix du Prompt
$0.60
Prix de sortie
7/16
Support de Fonctionnalités
Présentation du Modèle
Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe
Informations de Base
Développeur
nousresearch
Série de Modèles
Mistral
Date de sortie
2024-01-16
Longueur de Contexte
32,768 tokens
Tokens de Complétion Maximum
2,048 tokens
Variante
standard
Informations sur les Prix
Jetons de Prompt
$0.60 / 1M jetons
Tokens de Complétion
$0.60 / 1M jetons
Politique de Données
Fonctionnalités Prises en Charge
Pris en charge (7)
Top K
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Format de Réponse
Min P
Biais Logit
Non pris en charge (9)
Entrée d'Image
Seed
Utilisation d'Outils
Logprobs
Top Logprobs
Sorties Structurées
Raisonnement
Options de Recherche Web
Top A
Statistiques d'Utilisation Réelle
#281
Sur 345 modèles au total
41.44M
Total des Tokens des 30 derniers jours
1.38M
Usage Moyen Quotidien
21%
Changement d'Usage Hebdomadaire