MiniMax M1 (extended) Detaillierte Informationen und Preise für AI-Modelle anzeigen

Kontext Länge 256,000 Token, minimax von bereitgestellt

256,000
Kontext-Token
Kostenlos
Prompt-Preis
Kostenlos
Ausgabepreis
11/16
Funktionsunterstützung

Modell-Übersicht

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it to process long sequences—up to 1 million tokens—while maintaining competitive FLOP efficiency. With 456 billion total parameters and 45.9B active per token, this variant is optimized for complex, multi-step reasoning tasks. Trained via a custom reinforcement learning pipeline (CISPO), M1 excels in long-context understanding, software engineering, agentic tool use, and mathematical reasoning. Benchmarks show strong performance across FullStackBench, SWE-bench, MATH, GPQA, and TAU-Bench, often outperforming other open models like DeepSeek R1 and Qwen3-235B.

Grundinformationen

Entwickler
minimax
Modellserie
Other
Veröffentlichungsdatum
2025-06-17
Kontextlänge
256,000 Token
Variante
extended

Preisinformationen

Dieses Modell ist kostenlos nutzbar

Datenrichtlinie

Nutzungsbedingungen

학습 정책

1

Unterstützte Funktionen

Unterstützt (11)

Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Min P
Logit-Bias
Tool-Nutzung
Logprobs
Top Logprobs
Schlussfolgerung

Nicht unterstützt (5)

Bildeingabe
Antwortformat
Strukturierte Ausgaben
Web-Suchoptionen
Top A

Andere Varianten

Tatsächliche Nutzungsstatistiken

Keine aktuellen Nutzungsdaten verfügbar.

Modelle desselben Autors (minimax)

MiniMax-01
1,000,192 Token
$0.20 / $1.10