MiMo-V2.5は、Xiaomiが開発したネイティブ・オムニモーダルモデルです。プロレベルのエージェント性能を実現しつつ、画像や動画の理解タスクにおけるマルチモーダル認識能力においてMiMo-V2-Omniを凌駕します。1Mのコンテキストウィンドウにより、膨大なドキュメントや長時間の会話、複雑なタスクの文脈を一度に処理できるため、高度な推論能力、優れた認識精度、そしてコスト効率が求められるエージェントフレームワークへの統合に最適です。
提供元
リリース日
2026-04-22
学習完了日
—
ライセンス
商用モデル
入出力形式
コンテキスト長
1.0M / 131K
API入出力 (1M)
$0.4 / $2
利用方法
—
出力速度
60 tok/sArena 総合
1424Intelligence Index
53.8Coding Index
45.5Math Index
—LiveBench
—ForecastBench
—GPQA Diamond
86.6%HLE
33.8%MMLU-Pro
—AIME 2025
—MATH-500
—LB 推論
—LB 数学
—LB データ分析
—LiveCodeBench
—LB コーディング
—LB エージェンティック
—TAU2
94.2%TerminalBench
43.2%SciCode
50.2%IFBench
79.9%AA-LCR
0.7幻覚率 (HHEM)
—事実一貫性 (HHEM)
—LB 言語
—LB 指示
—1 / 3
左右にスワイプ
MiMo-V2.5は、Xiaomiが開発したネイティブ・オムニモーダルモデルです。プロレベルのエージェント性能を実現しつつ、画像や動画の理解タスクにおけるマルチモーダル認識能力においてMiMo-V2-Omniを凌駕します。1Mのコンテキストウィンドウにより、膨大なドキュメントや長時間の会話、複雑なタスクの文脈を一度に処理できるため、高度な推論能力、優れた認識精度、そしてコスト効率が求められるエージェントフレームワークへの統合に最適です。
提供元
リリース日
2026-04-22
学習完了日
—
ライセンス
商用モデル
入出力形式
コンテキスト長
1.0M / 131K
API入出力 (1M)
$0.4 / $2
利用方法
—
出力速度
60 tok/sArena 総合
1424Intelligence Index
53.8Coding Index
45.5Math Index
—LiveBench
—ForecastBench
—GPQA Diamond
86.6%HLE
33.8%MMLU-Pro
—AIME 2025
—MATH-500
—LB 推論
—LB 数学
—LB データ分析
—LiveCodeBench
—LB コーディング
—LB エージェンティック
—TAU2
94.2%TerminalBench
43.2%SciCode
50.2%IFBench
79.9%AA-LCR
0.7幻覚率 (HHEM)
—事実一貫性 (HHEM)
—LB 言語
—LB 指示
—