Sarvam-M (free) Confira informações detalhadas e preços dos modelos de AI

Contexto Comprimento 32,768 tokens, sarvamai de fornecido

32,768
Tokens de Contexto
Grátis
Preço do Prompt
Grátis
Preço de saída
9/16
Suporte de Recursos

Introdução do Modelo

Sarvam-M is a 24 B-parameter, instruction-tuned derivative of Mistral-Small-3.1-24B-Base-2503, post-trained on English plus eleven major Indic languages (bn, hi, kn, gu, mr, ml, or, pa, ta, te). The model introduces a dual-mode interface: “non-think” for low-latency chat and a optional “think” phase that exposes chain-of-thought tokens for more demanding reasoning, math, and coding tasks. Benchmark reports show solid gains versus similarly sized open models on Indic-language QA, GSM-8K math, and SWE-Bench coding, making Sarvam-M a practical general-purpose choice for multilingual conversational agents as well as analytical workloads that mix English, native Indic scripts, or romanized text.

Informações Básicas

Desenvolvedor
sarvamai
Série de Modelos
Other
Data de lançamento
2025-05-25
Comprimento do Contexto
32,768 tokens
Variante
free

Informações de Preços

Este modelo é gratuito

Política de Dados

Termos de Serviço

학습 정책

1

Recursos Suportados

Suportado (9)

Top K
Seed
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Min P
Viés Logit
Logprobs
Top Logprobs

Não suportado (7)

Entrada de Imagem
Formato de Resposta
Uso de Ferramentas
Saídas Estruturadas
Raciocínio
Opções de Pesquisa Web
Top A

Outras Variantes

Estatísticas de Uso Real

#280
De 346 modelos no total
43.39M
Total de Tokens Últimos 30 Dias
2.07M
Uso Médio Diário
10%
Mudança de Uso Semanal

Tendência de uso dos últimos 30 dias