GLM-5.1은 Z.ai가 2026년 4월 MIT 라이선스로 공개한 최신 오픈소스 모델로, 정교한 강화 학습을 통해 코딩 및 에이전트 성능을 목표로 GLM-5를 후훈련 업그레이드했습니다. 동일한 7,440억 MoE 구조(400억 활성 매개변수)와 200K 토큰 컨텍스트 창을 기반으로, SWE-Bench Pro에서 58.4%를 기록하여 Claude Opus 4.6(57.3%)을 넘어섰습니다. 사람의 개입 없이 최대 8시간 동안 계획-실행-테스트-수정-최적화의 전체 루프를 자율적으로 관리할 수 있어, 장기 에이전트형 엔지니어링 작업을 위한 가장 강력한 오픈 가중치 모델 중 하나입니다.
제공사
출시일
2026-04-07
학습완료일
2025
라이선스
공개 모델
입출력 형식
처리용량
203K / 66K
API 입출력 (1M)
$1.05 / $3.5
사용 방법
—
출력 속도
42 tok/sArena 종합
1471Intelligence Index
51.4Coding Index
43.4Math Index
—LiveBench
70.6ForecastBench
—GPQA Diamond
86.8%HLE
28.0%MMLU-Pro
—AIME 2025
—MATH-500
—LB 추론
72.5LB 수학
84.9LB 데이터 분석
63.2LiveCodeBench
—LB 코딩
75.4LB 에이전틱
55.0TAU2
97.7%TerminalBench
43.2%SciCode
43.8%IFBench
76.3%AA-LCR
0.6환각률 (HHEM)
10.1%사실 일관성 (HHEM)
89.9%LB 언어
71.8LB 지시
68.51 / 3
좌우로 스와이프
GLM-5.1은 Z.ai가 2026년 4월 MIT 라이선스로 공개한 최신 오픈소스 모델로, 정교한 강화 학습을 통해 코딩 및 에이전트 성능을 목표로 GLM-5를 후훈련 업그레이드했습니다. 동일한 7,440억 MoE 구조(400억 활성 매개변수)와 200K 토큰 컨텍스트 창을 기반으로, SWE-Bench Pro에서 58.4%를 기록하여 Claude Opus 4.6(57.3%)을 넘어섰습니다. 사람의 개입 없이 최대 8시간 동안 계획-실행-테스트-수정-최적화의 전체 루프를 자율적으로 관리할 수 있어, 장기 에이전트형 엔지니어링 작업을 위한 가장 강력한 오픈 가중치 모델 중 하나입니다.
제공사
출시일
2026-04-07
학습완료일
2025
라이선스
공개 모델
입출력 형식
처리용량
203K / 66K
API 입출력 (1M)
$1.05 / $3.5
사용 방법
—
출력 속도
42 tok/sArena 종합
1471Intelligence Index
51.4Coding Index
43.4Math Index
—LiveBench
70.6ForecastBench
—GPQA Diamond
86.8%HLE
28.0%MMLU-Pro
—AIME 2025
—MATH-500
—LB 추론
72.5LB 수학
84.9LB 데이터 분석
63.2LiveCodeBench
—LB 코딩
75.4LB 에이전틱
55.0TAU2
97.7%TerminalBench
43.2%SciCode
43.8%IFBench
76.3%AA-LCR
0.6환각률 (HHEM)
10.1%사실 일관성 (HHEM)
89.9%LB 언어
71.8LB 지시
68.5