Mistral Small 3 Detaillierte Informationen und Preise für AI-Modelle anzeigen
Kontext Länge 32,768 Token, mistralai von bereitgestellt
32,768
Kontext-Token
$0.05
Prompt-Preis
$0.09
Ausgabepreis
9/16
Funktionsunterstützung
Rollenspiel #14
Modell-Übersicht
Mistral Small 3 is a 24B-parameter language model optimized for low-latency performance across common AI tasks. Released under the Apache 2.0 license, it features both pre-trained and instruction-tuned versions designed for efficient local deployment. The model achieves 81% accuracy on the MMLU benchmark and performs competitively with larger models like Llama 3.3 70B and Qwen 32B, while operating at three times the speed on equivalent hardware. [Read the blog post about the model here.](https://mistral.ai/news/mistral-small-3/)
Grundinformationen
Entwickler
mistralai
Modellserie
Mistral
Veröffentlichungsdatum
2025-01-30
Kontextlänge
32,768 Token
Maximale Vervollständigungs-Tokens
32,768 Token
Variante
standard
Preisinformationen
Prompt-Token
$0.05 / 1M Token
Vervollständigungs-Token
$0.09 / 1M Token
Datenrichtlinie
Unterstützte Funktionen
Unterstützt (9)
Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Min P
Logit-Bias
Logprobs
Top Logprobs
Nicht unterstützt (7)
Bildeingabe
Antwortformat
Tool-Nutzung
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A
Andere Varianten
Tatsächliche Nutzungsstatistiken
#37
Von insgesamt 345 Modellen
35.5B
Gesamte Tokens der letzten 30 Tage
1.2B
Tägliche Durchschnittsnutzung
40%
Wöchentliche Nutzungsänderung