MiniMax M1 (extended) Consulta la información detallada y precios de los modelos de AI

Contexto Longitud 256,000 tokens, minimax de proporcionado

256,000
Tokens de Contexto
Gratis
Precio del Prompt
Gratis
Precio de salida
11/16
Soporte de Funciones

Introducción del Modelo

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it to process long sequences—up to 1 million tokens—while maintaining competitive FLOP efficiency. With 456 billion total parameters and 45.9B active per token, this variant is optimized for complex, multi-step reasoning tasks. Trained via a custom reinforcement learning pipeline (CISPO), M1 excels in long-context understanding, software engineering, agentic tool use, and mathematical reasoning. Benchmarks show strong performance across FullStackBench, SWE-bench, MATH, GPQA, and TAU-Bench, often outperforming other open models like DeepSeek R1 and Qwen3-235B.

Información Básica

Desarrollador
minimax
Serie de Modelos
Other
Fecha de lanzamiento
2025-06-17
Longitud de Contexto
256,000 tokens
Variante
extended

Información de Precios

Este modelo es gratuito

Política de Datos

Términos de Servicio

학습 정책

1

Funciones Compatibles

Compatible (11)

Top K
Seed
Penalización de Frecuencia
Penalización de Presencia
Penalización de Repetición
Min P
Sesgo Logit
Uso de Herramientas
Logprobs
Top Logprobs
Razonamiento

No compatible (5)

Entrada de Imagen
Formato de Respuesta
Salidas Estructuradas
Opciones de Búsqueda Web
Top A

Otras Variantes

Estadísticas de Uso Real

No hay datos de uso recientes disponibles.

Modelos del Mismo Autor (minimax)

MiniMax-01
1,000,192 tokens
$0.20 / $1.10