Mixtral 8x7B Instruct Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 32,768 tokens, mistralai de fourni
32,768
Tokens de Contexte
$0.08
Prix du Prompt
$0.24
Prix de sortie
8/16
Support de Fonctionnalités
Présentation du Modèle
Mixtral 8x7B Instruct is a pretrained generative Sparse Mixture of Experts, by Mistral AI, for chat and instruction use. Incorporates 8 experts (feed-forward networks) for a total of 47 billion parameters. Instruct model fine-tuned by Mistral. #moe
Informations de Base
Développeur
mistralai
Série de Modèles
Mistral
Date de sortie
2023-12-10
Longueur de Contexte
32,768 tokens
Tokens de Complétion Maximum
16,384 tokens
Variante
standard
Informations sur les Prix
Jetons de Prompt
$0.08 / 1M jetons
Tokens de Complétion
$0.24 / 1M jetons
Politique de Données
Fonctionnalités Prises en Charge
Pris en charge (8)
Top K
Seed
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Format de Réponse
Min P
Utilisation d'Outils
Non pris en charge (8)
Entrée d'Image
Biais Logit
Logprobs
Top Logprobs
Sorties Structurées
Raisonnement
Options de Recherche Web
Top A
Statistiques d'Utilisation Réelle
#68
Sur 346 modèles au total
9.3B
Total des Tokens des 30 derniers jours
308.80M
Usage Moyen Quotidien
39%
Changement d'Usage Hebdomadaire