Mixtral 8x7B Instruct Detaillierte Informationen und Preise für AI-Modelle anzeigen
Kontext Länge 32,768 Token, mistralai von bereitgestellt
32,768
Kontext-Token
$0.08
Prompt-Preis
$0.24
Ausgabepreis
8/16
Funktionsunterstützung
Modell-Übersicht
Mixtral 8x7B Instruct is a pretrained generative Sparse Mixture of Experts, by Mistral AI, for chat and instruction use. Incorporates 8 experts (feed-forward networks) for a total of 47 billion parameters. Instruct model fine-tuned by Mistral. #moe
Grundinformationen
Entwickler
mistralai
Modellserie
Mistral
Veröffentlichungsdatum
2023-12-10
Kontextlänge
32,768 Token
Maximale Vervollständigungs-Tokens
16,384 Token
Variante
standard
Preisinformationen
Prompt-Token
$0.08 / 1M Token
Vervollständigungs-Token
$0.24 / 1M Token
Datenrichtlinie
Unterstützte Funktionen
Unterstützt (8)
Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Antwortformat
Min P
Tool-Nutzung
Nicht unterstützt (8)
Bildeingabe
Logit-Bias
Logprobs
Top Logprobs
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A
Tatsächliche Nutzungsstatistiken
#68
Von insgesamt 346 Modellen
9.3B
Gesamte Tokens der letzten 30 Tage
308.80M
Tägliche Durchschnittsnutzung
39%
Wöchentliche Nutzungsänderung