Anthropic
Anthropic

Claude Opus 4

2025-05-22

Claude Opus 4는 2025년 5월에 출시된 Anthropic의 획기적인 코딩 및 에이전트 모델로, 복잡한 장시간 작업에서 지속적인 성능의 새로운 기준을 세웠습니다. SWE-bench(72.5%)와 Terminal-bench(43.2%)에서 선두를 기록하며, 수천 단계의 에이전트 워크플로를 성능 저하 없이 수 시간 동안 연속 처리할 수 있습니다. 하이브리드 모델로서 즉각적인 응답과 깊은 사고를 위한 확장 사고 모드를 모두 지원하며, 병렬 도구 사용과 향상된 지시 기억 능력을 갖추고 있습니다.

API|비전심층 사고웹 검색파일|상용 모델
학습 완료일
2025-05-01
입력 형식 → 출력 형식
처리용량
1MIN128KOUT
개별 비용(백만 글자)
$15IN$75OUT
비용 계산하기

AI 성능 평가

Arena 종합 점수
1424
±4
집계일 2026-05-01
종합 순위
73위
36,941 투표수
Arena 능력별 점수
한국어 능력
1380±2353위
복잡한 질문
1456±658위
전문 지식
1446±1474위
지시 이행
1443±737위
대화 기억
1437±862위
창의력
1429±938위
코딩 실력
1498±840위
수학 능력
1419±1276위
Arena 직군별 점수
문학·창작
1429±743위
생활·사회과학
1438±876위
엔터·미디어
1420±846위
경영·금융
1412±890위
의학·보건
1445±1375위
법률·행정
1435±1271위
소프트웨어·IT
1466±661위
수학·통계
1424±1375위
종합
AA Intelligence Index
39%↑0%
ForecastBench
61%↑1%
추론·수학
AA Math Index
73%↓1%
GPQA Diamond
80%↓3%
HLE
12%↓6%
MMLU-Pro
87%↑6%
AIME 2025
73%↓1%
MATH-500
98%↑5%
코딩
AA Coding Index
34%↓2%
LiveCodeBench
64%↓2%
TAU2
73%↓7%
TerminalBench
31%↓3%
SciCode
40%↓2%
언어·지시
IFBench
54%↓9%
AA-LCR
34%↓28%
환각률 (HHEM)
12%↑2%
사실 일관성 (HHEM)
88%↓2%
출력 속도
일반 모드
34tok/s↓43
출력 시작 1.33s
추론 모드
35tok/s↓52
출력 시작 7.61s