Dolphin 2.6 Mixtral 8x7B 🐬 Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 32,768 tokens, cognitivecomputations de fourni
32,768
Tokens de Contexte
$0.00
Prix du Prompt
$0.00
Prix de sortie
0/16
Support de Fonctionnalités
Présentation du Modèle
This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored
Informations de Base
Développeur
cognitivecomputations
Série de Modèles
Mistral
Date de sortie
2023-12-21
Longueur de Contexte
32,768 tokens
Variante
standard
Informations sur les Prix
Jetons de Prompt
$0.00 / 1M jetons
Tokens de Complétion
$0.00 / 1M jetons
Fonctionnalités Prises en Charge
Non pris en charge (16)
Entrée d'Image
Top K
Seed
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Format de Réponse
Min P
Biais Logit
Utilisation d'Outils
Logprobs
Top Logprobs
Sorties Structurées
Raisonnement
Options de Recherche Web
Top A