Llama 4 Maverickは、128のエキスパートと1回の順伝播あたり170億の活性パラメータ(総計4,000億)を持つ混合エキスパート(MoE)アーキテクチャを採用したMetaの大容量マルチモーダル言語モデルです。12言語のテキスト・画像入力と100万トークンのコンテキストウィンドウに対応し、アーリーフュージョン方式でネイティブマルチモーダルを実現しています。アシスタント型インタラクションと画像推論向けに指示調整され、高度なマルチモーダル理解と高スループットが求められるビジョン言語タスクに最適化されています。
提供元
リリース日
2025-04-05
学習完了日
2024-08-31
ライセンス
公開モデル
入出力形式
コンテキスト長
1.0M / 16K
API入出力 (1M)
$0.15 / $0.6
利用方法
API連携
出力速度
111 tok/sArena 総合
1327Intelligence Index
18.4Coding Index
15.6Math Index
19.3LiveBench
—ForecastBench
57.1GPQA Diamond
67.1%HLE
4.8%MMLU-Pro
80.9%AIME 2025
19.3%MATH-500
88.9%LB 推論
—LB 数学
—LB データ分析
—LiveCodeBench
39.7%LB コーディング
—LB エージェンティック
—TAU2
17.8%TerminalBench
6.8%SciCode
33.1%IFBench
43.0%AA-LCR
0.5幻覚率 (HHEM)
8.2%事実一貫性 (HHEM)
91.8%LB 言語
—LB 指示
—1 / 3
左右にスワイプ
Llama 4 Maverickは、128のエキスパートと1回の順伝播あたり170億の活性パラメータ(総計4,000億)を持つ混合エキスパート(MoE)アーキテクチャを採用したMetaの大容量マルチモーダル言語モデルです。12言語のテキスト・画像入力と100万トークンのコンテキストウィンドウに対応し、アーリーフュージョン方式でネイティブマルチモーダルを実現しています。アシスタント型インタラクションと画像推論向けに指示調整され、高度なマルチモーダル理解と高スループットが求められるビジョン言語タスクに最適化されています。
提供元
リリース日
2025-04-05
学習完了日
2024-08-31
ライセンス
公開モデル
入出力形式
コンテキスト長
1.0M / 16K
API入出力 (1M)
$0.15 / $0.6
利用方法
API連携
出力速度
111 tok/sArena 総合
1327Intelligence Index
18.4Coding Index
15.6Math Index
19.3LiveBench
—ForecastBench
57.1GPQA Diamond
67.1%HLE
4.8%MMLU-Pro
80.9%AIME 2025
19.3%MATH-500
88.9%LB 推論
—LB 数学
—LB データ分析
—LiveCodeBench
39.7%LB コーディング
—LB エージェンティック
—TAU2
17.8%TerminalBench
6.8%SciCode
33.1%IFBench
43.0%AA-LCR
0.5幻覚率 (HHEM)
8.2%事実一貫性 (HHEM)
91.8%LB 言語
—LB 指示
—