Anthropic
Anthropic

Claude Sonnet 4

2025-05-22

Claude Sonnet 4は、2025年5月にOpus 4と同時にリリースされたAnthropicのバランスの取れた中位モデルで、強力なコーディング・推論能力と計算効率を両立するよう設計されています。SWE-benchで72.7%の最高水準を達成しながら、Opusモデルと比較して大幅に低いコストと高速な応答時間を提供します。自律的なコードベース探索、エージェント駆動ワークフローでのエラー率低減、複雑な指示追従の高い信頼性が強みで、日常的な開発から複雑なプロジェクトまで幅広いタスクに適しています。

API|ビジョン深い思考Web検索ファイル|商用モデル
学習完了日
2025-01-31
入力形式 → 出力形式
処理容量
1MIN64KOUT
単価(100万文字)
$3IN$15OUT
費用を計算する

AI性能評価

Arena 総合点数
1399
±4
集計日 2026-05-01
総合ランク
109位
35,139 投票数
Arena 能力別スコア
日本語能力
1344±2374位
複雑な質問
1431±693位
専門知識
1433±1587位
指示遂行
1414±775位
会話記憶
1420±882位
創造力
1395±970位
コード作成
1473±867位
数学力
1402±13103位
Arena 職種別スコア
文学·創作
1397±785位
生活·社会
1418±8105位
エンタメ
1389±883位
経営·金融
1384±8125位
医学·保健
1419±13112位
法律·行政
1409±13103位
ソフト開発
1443±695位
数学·統計
1410±13103位
総合
AA Intelligence Index
39%↑0%
LiveBench
61%↑0%
ForecastBench
59%↑0%
推論·数学
AA Math Index
74%↑0%
GPQA Diamond
78%↓4%
HLE
9.6%↓8%
MMLU-Pro
84%↑3%
AIME 2025
74%↑0%
MATH-500
99%↑6%
LB 推論
69%↑0%
LB 数学
71%↓4%
LB データ
55%↑1%
コーディング
AA Coding Index
34%↓2%
LiveCodeBench
66%↑0%
LB コード
77%↑5%
LB エージェント
40%↓5%
TAU2
65%↓16%
TerminalBench
31%↓3%
SciCode
40%↓2%
言語·指示
IFBench
55%↓8%
AA-LCR
65%↑3%
幻覚率 (HHEM)
10%↑0%
事実一貫性 (HHEM)
90%↑0%
LB 言語
73%↑1%
LB 指示
44%↓7%
出力速度
標準モード
45tok/s↓32
出力開始 0.80s
推論モード
49tok/s↓38
出力開始 10.65s