OpenAI, 코딩 에이전트 보안 프로토콜 상세 공개
OpenAI
2026년 5월 10일 (일)
- •OpenAI는 자율 코딩 에이전트의 실제 업무 환경 내 동작을 통제하기 위해 계층화된 보안 제어를 구현한다.
- •보안 조치에는 샌드박스, 엄격한 네트워크 접근 제한, 고위험 작업을 위한 단계별 승인 정책이 포함된다.
- •시스템은 에이전트 전용 원격 측정을 통해 감사 로그를 내보내며, 이를 통해 보안 팀이 에이전트의 의도와 활동을 검증할 수 있도록 지원한다.
OpenAI는 코딩 에이전트, 특히 Codex 시스템을 안전한 기술적 경계 내에서 운용하기 위한 프레임워크를 발표했다. 생산성을 유지하면서 위험을 완화하기 위해, 조직은 샌드박스(소프트웨어가 호스트 시스템에 접근하지 않고 독립된 환경에서 실행되는 기술)와 단계별 승인 정책을 결합하여 활용한다. 예를 들어 위험도가 낮은 일상적인 코딩 작업은 수동 검토 없이 진행되지만, 잠재적으로 위험한 작업은 반드시 사람의 승인을 거쳐야 한다.
또한 시스템에는 보류 중인 요청의 위험을 평가하여 개발자의 업무 흐름을 최적화하는 하위 에이전트인 '자동 검토 모드'가 통합되어 있다. 아울러 엄격한 네트워크 접근 정책을 시행하고 보안 OS 키링을 통해 ID 자격 증명을 관리함으로써, 모든 활동이 기업 작업 공간 로그와 연동되도록 보장한다.
투명성은 OpenTelemetry(소프트웨어 성능 데이터를 수집하기 위한 프레임워크)를 통해 확보된다. 에이전트는 프롬프트, 승인 결정, 도구 실행 결과 등 시스템 이벤트 로그를 내보내며, 전담 보안 선별 에이전트가 이를 분석해 특정 코딩 작업의 의도를 재구성한다. 이를 통해 감사관과 보안 팀은 에이전트의 행동을 명확하게 파악할 수 있다.