Anthropic
Anthropic

Claude Opus 4.5

2025-11-24

Claude Opus 4.5は、2025年11月にリリースされたAnthropicのフロンティア推論モデルで、複雑なソフトウェアエンジニアリング、エージェントワークフロー、長期的なコンピュータ活用に最適化されています。強力なマルチモーダル機能、プロンプトインジェクションへの堅牢性向上、タスクに応じて速度・深度・トークン使用量を調整できる新しい強度パラメータを提供します。自律的な研究、多段階デバッグ、スプレッドシートやブラウザの操作、マルチエージェント連携に優れ、構造化された推論と実行の信頼性で大幅な向上を実現しています。

Anthropic ProAnthropic Max (5x)Anthropic Max (20x)API|ビジョン深い思考Web検索ファイル|商用モデル
学習完了日
2025-08-01
入力形式 → 出力形式
処理容量
200KIN64KOUT
単価(100万文字)
$5IN$25OUT
費用を計算する

AI性能評価

Arena 総合点数
1473
±4
集計日 2026-05-01
総合ランク
17位
37,158 投票数
Arena 能力別スコア
日本語能力
1454±3511位
複雑な質問
1499±510位
専門知識
1504±1311位
指示遂行
1485±76位
会話記憶
1487±812位
創造力
1468±97位
コード作成
1531±75位
数学力
1470±1218位
Arena 職種別スコア
文学·創作
1465±710位
生活·社会
1488±815位
エンタメ
1456±89位
経営·金融
1468±821位
医学·保健
1488±1319位
法律·行政
1486±1215位
ソフト開発
1513±69位
数学·統計
1470±1523位
総合
AA Intelligence Index
50%↑11%
LiveBench
54%↓7%
ForecastBench
60%↑1%
推論·数学
AA Math Index
91%↑17%
GPQA Diamond
87%↑4%
HLE
28%↑11%
MMLU-Pro
90%↑8%
AIME 2025
91%↑17%
LB 推論
48%↓21%
LB 数学
64%↓10%
LB データ
44%↓9%
コーディング
AA Coding Index
48%↑11%
LiveCodeBench
87%↑22%
LB コード
78%↑5%
LB エージェント
50%↑5%
TAU2
90%↑9%
TerminalBench
47%↑13%
SciCode
50%↑8%
言語·指示
IFBench
58%↓5%
AA-LCR
74%↑12%
幻覚率 (HHEM)
11%↑1%
事実一貫性 (HHEM)
89%↓1%
LB 言語
77%↑5%
LB 指示
29%↓22%
出力速度
標準モード
51tok/s↓26
出力開始 1.21s
推論モード
58tok/s↓28
出力開始 13.53s