Sarvam-M Confira informações detalhadas e preços dos modelos de AI

Contexto Comprimento 32,768 tokens, sarvamai de fornecido

32,768
Tokens de Contexto
$0.00
Preço do Prompt
$0.00
Preço de saída
0/16
Suporte de Recursos

Introdução do Modelo

Sarvam-M is a 24 B-parameter, instruction-tuned derivative of Mistral-Small-3.1-24B-Base-2503, post-trained on English plus eleven major Indic languages (bn, hi, kn, gu, mr, ml, or, pa, ta, te). The model introduces a dual-mode interface: “non-think” for low-latency chat and a optional “think” phase that exposes chain-of-thought tokens for more demanding reasoning, math, and coding tasks. Benchmark reports show solid gains versus similarly sized open models on Indic-language QA, GSM-8K math, and SWE-Bench coding, making Sarvam-M a practical general-purpose choice for multilingual conversational agents as well as analytical workloads that mix English, native Indic scripts, or romanized text.

Informações Básicas

Desenvolvedor
sarvamai
Série de Modelos
Other
Data de lançamento
2025-05-25
Comprimento do Contexto
32,768 tokens
Variante
standard

Informações de Preços

Tokens de Prompt
$0.00 / 1M tokens
Tokens de Conclusão
$0.00 / 1M tokens

Recursos Suportados

Não suportado (16)

Entrada de Imagem
Top K
Seed
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Formato de Resposta
Min P
Viés Logit
Uso de Ferramentas
Logprobs
Top Logprobs
Saídas Estruturadas
Raciocínio
Opções de Pesquisa Web
Top A

Outras Variantes

Estatísticas de Uso Real

#341
De 353 modelos no total
684.32K
Total de Tokens Últimos 30 Dias
48.88K
Uso Médio Diário
72%
Mudança de Uso Semanal

Tendência de uso dos últimos 30 dias

Modelos de Faixa de Preço Similar

Jamba 1.5 Large
ai21
256,000 tokens
$0.00 / $0.00
R1 Distill Qwen 7B
deepseek
131,072 tokens
$0.00 / $0.00
Deepseek R1 0528 Qwen3 8B (free)
deepseek
131,072 tokens
$0.00 / $0.00
Gemma 1 2B
google
8,192 tokens
$0.00 / $0.00
R1 0528 (free)
deepseek
163,840 tokens
$0.00 / $0.00