Dolphin 2.6 Mixtral 8x7B 🐬 Detaillierte Informationen und Preise für AI-Modelle anzeigen

Kontext Länge 32,768 Token, cognitivecomputations von bereitgestellt

32,768
Kontext-Token
$0.00
Prompt-Preis
$0.00
Ausgabepreis
0/16
Funktionsunterstützung

Modell-Übersicht

This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored

Grundinformationen

Entwickler
cognitivecomputations
Modellserie
Mistral
Veröffentlichungsdatum
2023-12-21
Kontextlänge
32,768 Token
Variante
standard

Preisinformationen

Prompt-Token
$0.00 / 1M Token
Vervollständigungs-Token
$0.00 / 1M Token

Unterstützte Funktionen

Nicht unterstützt (16)

Bildeingabe
Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Antwortformat
Min P
Logit-Bias
Tool-Nutzung
Logprobs
Top Logprobs
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A

Tatsächliche Nutzungsstatistiken

Keine aktuellen Nutzungsdaten verfügbar.

Modelle desselben Autors (cognitivecomputations)

Dolphin3.0 R1 Mistral 24B (free)
32,768 Token
Kostenlos
Dolphin3.0 Mistral 24B (free)
32,768 Token
Kostenlos
Dolphin Llama 3 70B 🐬
8,192 Token
$0.00 / $0.00
Dolphin 2.9.2 Mixtral 8x22B 🐬
16,000 Token
$0.90 / $0.90

Modelle in ähnlicher Preisklasse

Jamba 1.5 Large
ai21
256,000 Token
$0.00 / $0.00
Deepseek R1 0528 Qwen3 8B (free)
deepseek
131,072 Token
$0.00 / $0.00
Gemma 1 2B
google
8,192 Token
$0.00 / $0.00
R1 0528 (free)
deepseek
163,840 Token
$0.00 / $0.00
Sarvam-M (free)
sarvamai
32,768 Token
$0.00 / $0.00