Mixtral 8x7B Instruct Detaillierte Informationen und Preise für AI-Modelle anzeigen
Kontext Länge 32,768 Token, mistralai von bereitgestellt
32,768
Kontext-Token
$0.40
Prompt-Preis
$0.40
Ausgabepreis
8/16
Funktionsunterstützung
Modell-Übersicht
Mixtral 8x7B Instruct is a pretrained generative Sparse Mixture of Experts, by Mistral AI, for chat and instruction use. Incorporates 8 experts (feed-forward networks) for a total of 47 billion parameters. Instruct model fine-tuned by Mistral. #moe
Grundinformationen
Entwickler
mistralai
Modellserie
Mistral
Veröffentlichungsdatum
2023-12-10
Kontextlänge
32,768 Token
Maximale Vervollständigungs-Tokens
16,384 Token
Variante
standard
Preisinformationen
Prompt-Token
$0.40 / 1M Token
Vervollständigungs-Token
$0.40 / 1M Token
Datenrichtlinie
Unterstützte Funktionen
Unterstützt (8)
Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Antwortformat
Min P
Tool-Nutzung
Nicht unterstützt (8)
Bildeingabe
Logit-Bias
Logprobs
Top Logprobs
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A
Tatsächliche Nutzungsstatistiken
#94
Von insgesamt 353 Modellen
7.9B
Gesamte Tokens der letzten 30 Tage
262.69M
Tägliche Durchschnittsnutzung
9%
Wöchentliche Nutzungsänderung