Sarvam-M (free) Consultez les informations détaillées et les prix des modèles d'IA

Contexte Longueur 32,768 tokens, sarvamai de fourni

32,768
Tokens de Contexte
Gratuit
Prix du Prompt
Gratuit
Prix de sortie
9/16
Support de Fonctionnalités

Présentation du Modèle

Sarvam-M is a 24 B-parameter, instruction-tuned derivative of Mistral-Small-3.1-24B-Base-2503, post-trained on English plus eleven major Indic languages (bn, hi, kn, gu, mr, ml, or, pa, ta, te). The model introduces a dual-mode interface: “non-think” for low-latency chat and a optional “think” phase that exposes chain-of-thought tokens for more demanding reasoning, math, and coding tasks. Benchmark reports show solid gains versus similarly sized open models on Indic-language QA, GSM-8K math, and SWE-Bench coding, making Sarvam-M a practical general-purpose choice for multilingual conversational agents as well as analytical workloads that mix English, native Indic scripts, or romanized text.

Informations de Base

Développeur
sarvamai
Série de Modèles
Other
Date de sortie
2025-05-25
Longueur de Contexte
32,768 tokens
Variante
free

Informations sur les Prix

Ce modèle est gratuit

Politique de Données

Fonctionnalités Prises en Charge

Pris en charge (9)

Top K
Seed
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Min P
Biais Logit
Logprobs
Top Logprobs

Non pris en charge (7)

Entrée d'Image
Format de Réponse
Utilisation d'Outils
Sorties Structurées
Raisonnement
Options de Recherche Web
Top A

Autres Variantes

Statistiques d'Utilisation Réelle

#280
Sur 346 modèles au total
43.39M
Total des Tokens des 30 derniers jours
2.07M
Usage Moyen Quotidien
10%
Changement d'Usage Hebdomadaire

Tendance d'utilisation des 30 derniers jours