MiniMax M1 (extended) Confira informações detalhadas e preços dos modelos de AI

Contexto Comprimento 256,000 tokens, minimax de fornecido

256,000
Tokens de Contexto
Grátis
Preço do Prompt
Grátis
Preço de saída
11/16
Suporte de Recursos

Introdução do Modelo

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it to process long sequences—up to 1 million tokens—while maintaining competitive FLOP efficiency. With 456 billion total parameters and 45.9B active per token, this variant is optimized for complex, multi-step reasoning tasks. Trained via a custom reinforcement learning pipeline (CISPO), M1 excels in long-context understanding, software engineering, agentic tool use, and mathematical reasoning. Benchmarks show strong performance across FullStackBench, SWE-bench, MATH, GPQA, and TAU-Bench, often outperforming other open models like DeepSeek R1 and Qwen3-235B.

Informações Básicas

Desenvolvedor
minimax
Série de Modelos
Other
Data de lançamento
2025-06-17
Comprimento do Contexto
256,000 tokens
Variante
extended

Informações de Preços

Este modelo é gratuito

Política de Dados

Termos de Serviço

학습 정책

1

Recursos Suportados

Suportado (11)

Top K
Seed
Penalidade de Frequência
Penalidade de Presença
Penalidade de Repetição
Min P
Viés Logit
Uso de Ferramentas
Logprobs
Top Logprobs
Raciocínio

Não suportado (5)

Entrada de Imagem
Formato de Resposta
Saídas Estruturadas
Opções de Pesquisa Web
Top A

Outras Variantes

Estatísticas de Uso Real

Nenhum dado de uso recente disponível.

Modelos do Mesmo Autor (minimax)

MiniMax-01
1,000,192 tokens
$0.20 / $1.10