Sarvam-M (free) Consulta la información detallada y precios de los modelos de AI

Contexto Longitud 32,768 tokens, sarvamai de proporcionado

32,768
Tokens de Contexto
Gratis
Precio del Prompt
Gratis
Precio de salida
9/16
Soporte de Funciones

Introducción del Modelo

Sarvam-M is a 24 B-parameter, instruction-tuned derivative of Mistral-Small-3.1-24B-Base-2503, post-trained on English plus eleven major Indic languages (bn, hi, kn, gu, mr, ml, or, pa, ta, te). The model introduces a dual-mode interface: “non-think” for low-latency chat and a optional “think” phase that exposes chain-of-thought tokens for more demanding reasoning, math, and coding tasks. Benchmark reports show solid gains versus similarly sized open models on Indic-language QA, GSM-8K math, and SWE-Bench coding, making Sarvam-M a practical general-purpose choice for multilingual conversational agents as well as analytical workloads that mix English, native Indic scripts, or romanized text.

Información Básica

Desarrollador
sarvamai
Serie de Modelos
Other
Fecha de lanzamiento
2025-05-25
Longitud de Contexto
32,768 tokens
Variante
free

Información de Precios

Este modelo es gratuito

Política de Datos

Términos de Servicio

학습 정책

1

Funciones Compatibles

Compatible (9)

Top K
Seed
Penalización de Frecuencia
Penalización de Presencia
Penalización de Repetición
Min P
Sesgo Logit
Logprobs
Top Logprobs

No compatible (7)

Entrada de Imagen
Formato de Respuesta
Uso de Herramientas
Salidas Estructuradas
Razonamiento
Opciones de Búsqueda Web
Top A

Otras Variantes

Estadísticas de Uso Real

#280
De 346 modelos en total
43.39M
Total de Tokens Últimos 30 Días
2.07M
Uso Promedio Diario
10%
Cambio de Uso Semanal

Tendencia de uso de los últimos 30 días