Claude Haiku 4.5는 Anthropic에서 가장 빠르고 비용 효율적인 모델로, 대형 Claude 모델의 일부 비용으로 최전선에 근접한 지능을 제공합니다. Claude Sonnet 4와 동등한 코딩 성능을 3분의 1 비용, 2배 이상의 속도로 달성하며, SWE-bench Verified에서 73.3%를 기록해 세계 최상위 코딩 모델에 포함됩니다. 확장 사고, 도구 사용, 컴퓨터 조작, 20만 토큰 컨텍스트 창을 지원하여 실시간 활용, 병렬 하위 에이전트, 대규모 배포에 적합합니다.
Anthropic FreeAnthropic ProAnthropic Max (5x)Anthropic Max (20x)API|비전심층 사고웹 검색|상용 모델
AI 성능 평가
Arena 종합 점수
1408
±3집계일 2026-05-01
종합 순위
98위
65,644 투표수
Arena 능력별 점수
한국어 능력
1351±2180위
복잡한 질문
1437±482위
전문 지식
1447±1070위
지시 이행
1411±579위
대화 기억
1422±676위
창의력
1385±787위
코딩 실력
1478±660위
수학 능력
1391±10123위
Arena 직군별 점수
문학·창작
1395±689위
생활·사회과학
1422±7100위
엔터·미디어
1382±689위
경영·금융
1415±683위
의학·보건
1417±10116위
법률·행정
1410±9100위
소프트웨어·IT
1460±569위
수학·통계
1420±1183위
종합
AA Intelligence Index
37%↓2%
LiveBench
43%↓18%
ForecastBench
59%↑0%
추론·수학
AA Math Index
84%↑9%
GPQA Diamond
67%↓15%
HLE
9.7%↓8%
MMLU-Pro
76%↓5%
AIME 2025
84%↑9%
LB 추론
34%↓35%
LB 수학
58%↓16%
LB 데이터 분석
45%↓8%
코딩
AA Coding Index
33%↓4%
LiveCodeBench
62%↓4%
LB 코딩
72%↓1%
LB 에이전틱
33%↓12%
TAU2
55%↓26%
TerminalBench
27%↓7%
SciCode
43%↑1%
언어·지시
IFBench
54%↓9%
AA-LCR
70%↑8%
환각률 (HHEM)
9.8%↑0%
사실 일관성 (HHEM)
90%↑0%
LB 언어
57%↓15%
LB 지시
18%↓33%
출력 속도
일반 모드
99tok/s↑22
출력 시작 0.51s
추론 모드
111tok/s↑24
출력 시작 13.92s