Sarvam-M Consulta la información detallada y precios de los modelos de AI

Contexto Longitud 32,768 tokens, sarvamai de proporcionado

32,768
Tokens de Contexto
$0.00
Precio del Prompt
$0.00
Precio de salida
0/16
Soporte de Funciones

Introducción del Modelo

Sarvam-M is a 24 B-parameter, instruction-tuned derivative of Mistral-Small-3.1-24B-Base-2503, post-trained on English plus eleven major Indic languages (bn, hi, kn, gu, mr, ml, or, pa, ta, te). The model introduces a dual-mode interface: “non-think” for low-latency chat and a optional “think” phase that exposes chain-of-thought tokens for more demanding reasoning, math, and coding tasks. Benchmark reports show solid gains versus similarly sized open models on Indic-language QA, GSM-8K math, and SWE-Bench coding, making Sarvam-M a practical general-purpose choice for multilingual conversational agents as well as analytical workloads that mix English, native Indic scripts, or romanized text.

Información Básica

Desarrollador
sarvamai
Serie de Modelos
Other
Fecha de lanzamiento
2025-05-25
Longitud de Contexto
32,768 tokens
Variante
standard

Información de Precios

Tokens de Prompt
$0.00 / 1M tokens
Tokens de Completado
$0.00 / 1M tokens

Funciones Compatibles

No compatible (16)

Entrada de Imagen
Top K
Seed
Penalización de Frecuencia
Penalización de Presencia
Penalización de Repetición
Formato de Respuesta
Min P
Sesgo Logit
Uso de Herramientas
Logprobs
Top Logprobs
Salidas Estructuradas
Razonamiento
Opciones de Búsqueda Web
Top A

Otras Variantes

Estadísticas de Uso Real

#341
De 353 modelos en total
684.32K
Total de Tokens Últimos 30 Días
48.88K
Uso Promedio Diario
72%
Cambio de Uso Semanal

Tendencia de uso de los últimos 30 días

Modelos de Rango de Precio Similar

Jamba 1.5 Large
ai21
256,000 tokens
$0.00 / $0.00
R1 Distill Qwen 7B
deepseek
131,072 tokens
$0.00 / $0.00
Deepseek R1 0528 Qwen3 8B (free)
deepseek
131,072 tokens
$0.00 / $0.00
Gemma 1 2B
google
8,192 tokens
$0.00 / $0.00
R1 0528 (free)
deepseek
163,840 tokens
$0.00 / $0.00