Dolphin 2.6 Mixtral 8x7B 🐬 Detaillierte Informationen und Preise für AI-Modelle anzeigen
Kontext Länge 32,768 Token, cognitivecomputations von bereitgestellt
32,768
Kontext-Token
$0.00
Prompt-Preis
$0.00
Ausgabepreis
0/16
Funktionsunterstützung
Modell-Übersicht
This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored
Grundinformationen
Entwickler
cognitivecomputations
Modellserie
Mistral
Veröffentlichungsdatum
2023-12-21
Kontextlänge
32,768 Token
Variante
standard
Preisinformationen
Prompt-Token
$0.00 / 1M Token
Vervollständigungs-Token
$0.00 / 1M Token
Unterstützte Funktionen
Nicht unterstützt (16)
Bildeingabe
Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Antwortformat
Min P
Logit-Bias
Tool-Nutzung
Logprobs
Top Logprobs
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A