MiniMax M1 (extended) Consultez les informations détaillées et les prix des modèles d'IA

Contexte Longueur 256,000 tokens, minimax de fourni

256,000
Tokens de Contexte
Gratuit
Prix du Prompt
Gratuit
Prix de sortie
11/16
Support de Fonctionnalités

Présentation du Modèle

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it to process long sequences—up to 1 million tokens—while maintaining competitive FLOP efficiency. With 456 billion total parameters and 45.9B active per token, this variant is optimized for complex, multi-step reasoning tasks. Trained via a custom reinforcement learning pipeline (CISPO), M1 excels in long-context understanding, software engineering, agentic tool use, and mathematical reasoning. Benchmarks show strong performance across FullStackBench, SWE-bench, MATH, GPQA, and TAU-Bench, often outperforming other open models like DeepSeek R1 and Qwen3-235B.

Informations de Base

Développeur
minimax
Série de Modèles
Other
Date de sortie
2025-06-17
Longueur de Contexte
256,000 tokens
Variante
extended

Informations sur les Prix

Ce modèle est gratuit

Politique de Données

Fonctionnalités Prises en Charge

Pris en charge (11)

Top K
Seed
Pénalité de Fréquence
Pénalité de Présence
Pénalité de Répétition
Min P
Biais Logit
Utilisation d'Outils
Logprobs
Top Logprobs
Raisonnement

Non pris en charge (5)

Entrée d'Image
Format de Réponse
Sorties Structurées
Options de Recherche Web
Top A

Autres Variantes

Statistiques d'Utilisation Réelle

Aucune donnée d'utilisation récente disponible.

Modèles du Même Auteur (minimax)

MiniMax-01
1,000,192 tokens
$0.20 / $1.10