MiniMax M2.7は、M2.5を基盤に自己進化型訓練パラダイムを導入した次世代フラッグシップモデルで、訓練中に100回以上のスキャフォールド最適化を自律実行し、30%の性能向上を達成しました。エージェントチーム、動的ツール検索、精巧な生産性タスクなど複雑なエージェントワークフロー向けに設計されています。SWE-Proで56.22%(GPT-5.3-Codex同等)、Terminal Bench 2で57.0%を記録し、システムレベルの理解力を実証しています。2,300億の疎なMoEアーキテクチャに基づき、入力100万トークンあたり0.30ドルという低価格でフロンティア性能を提供します。
提供元
リリース日
2026-03-18
学習完了日
非公開
ライセンス
公開モデル
入出力形式
コンテキスト長
205K / 128K
API入出力 (1M)
$0.3 / $1.2
利用方法
API連携
出力速度
45 tok/sArena 総合
1405Intelligence Index
49.6Coding Index
41.9Math Index
—LiveBench
65.0ForecastBench
—GPQA Diamond
87.4%HLE
28.1%MMLU-Pro
—AIME 2025
—MATH-500
—LB 推論
74.8LB 数学
80.5LB データ分析
56.3LiveCodeBench
—LB コーディング
54.9LB エージェンティック
50.0TAU2
84.8%TerminalBench
39.4%SciCode
47.0%IFBench
75.7%AA-LCR
0.7幻覚率 (HHEM)
—事実一貫性 (HHEM)
—LB 言語
66.8LB 指示
61.11 / 3
左右にスワイプ
MiniMax M2.7は、M2.5を基盤に自己進化型訓練パラダイムを導入した次世代フラッグシップモデルで、訓練中に100回以上のスキャフォールド最適化を自律実行し、30%の性能向上を達成しました。エージェントチーム、動的ツール検索、精巧な生産性タスクなど複雑なエージェントワークフロー向けに設計されています。SWE-Proで56.22%(GPT-5.3-Codex同等)、Terminal Bench 2で57.0%を記録し、システムレベルの理解力を実証しています。2,300億の疎なMoEアーキテクチャに基づき、入力100万トークンあたり0.30ドルという低価格でフロンティア性能を提供します。
提供元
リリース日
2026-03-18
学習完了日
非公開
ライセンス
公開モデル
入出力形式
コンテキスト長
205K / 128K
API入出力 (1M)
$0.3 / $1.2
利用方法
API連携
出力速度
45 tok/sArena 総合
1405Intelligence Index
49.6Coding Index
41.9Math Index
—LiveBench
65.0ForecastBench
—GPQA Diamond
87.4%HLE
28.1%MMLU-Pro
—AIME 2025
—MATH-500
—LB 推論
74.8LB 数学
80.5LB データ分析
56.3LiveCodeBench
—LB コーディング
54.9LB エージェンティック
50.0TAU2
84.8%TerminalBench
39.4%SciCode
47.0%IFBench
75.7%AA-LCR
0.7幻覚率 (HHEM)
—事実一貫性 (HHEM)
—LB 言語
66.8LB 指示
61.1