Sarvam-M Detaillierte Informationen und Preise für AI-Modelle anzeigen

Kontext Länge 32,768 Token, sarvamai von bereitgestellt

32,768
Kontext-Token
$0.25
Prompt-Preis
$0.75
Ausgabepreis
4/16
Funktionsunterstützung

Modell-Übersicht

Sarvam-M is a 24 B-parameter, instruction-tuned derivative of Mistral-Small-3.1-24B-Base-2503, post-trained on English plus eleven major Indic languages (bn, hi, kn, gu, mr, ml, or, pa, ta, te). The model introduces a dual-mode interface: “non-think” for low-latency chat and a optional “think” phase that exposes chain-of-thought tokens for more demanding reasoning, math, and coding tasks. Benchmark reports show solid gains versus similarly sized open models on Indic-language QA, GSM-8K math, and SWE-Bench coding, making Sarvam-M a practical general-purpose choice for multilingual conversational agents as well as analytical workloads that mix English, native Indic scripts, or romanized text.

Grundinformationen

Entwickler
sarvamai
Modellserie
Other
Veröffentlichungsdatum
2025-05-25
Kontextlänge
32,768 Token
Maximale Vervollständigungs-Tokens
32,768 Token
Variante
standard

Preisinformationen

Prompt-Token
$0.25 / 1M Token
Vervollständigungs-Token
$0.75 / 1M Token

Unterstützte Funktionen

Unterstützt (4)

Top K
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe

Nicht unterstützt (12)

Bildeingabe
Seed
Antwortformat
Min P
Logit-Bias
Tool-Nutzung
Logprobs
Top Logprobs
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A

Andere Varianten

Tatsächliche Nutzungsstatistiken

#315
Von insgesamt 346 Modellen
13.72M
Gesamte Tokens der letzten 30 Tage
980.32K
Tägliche Durchschnittsnutzung
83%
Wöchentliche Nutzungsänderung

Nutzungstrend der letzten 30 Tage

Modelle in ähnlicher Preisklasse

Qwen2.5 VL 72B Instruct
qwen
32,000 Token
$0.25 / $0.75
Qwen VL Plus
qwen
7,500 Token
$0.21 / $0.63
DeepSeek V3 0324
deepseek
163,840 Token
$0.30 / $0.88
Codestral 2501
mistralai
262,144 Token
$0.30 / $0.90
Mistral Small
mistralai
32,768 Token
$0.20 / $0.60