OpenAI가 자사 코딩 에이전트 Codex를 Anthropic의 Claude Code 안에서 직접 쓸 수 있는 공식 플러그인을 출시했다. 두 회사의 경쟁 관계를 넘어 실제 개발자 워크플로우에서 출발한 선택이며, 2026년 3월 30일 공개 후 9일 만에 GitHub 스타 12,800개를 넘어섰다.

한 줄 결론: Claude Code로 작성하고 Codex로 검증하는 이중 에이전트 구조를, 플러그인 하나로 터미널 안에서 완성할 수 있게 됐다.

배경 — “자기 숙제를 자기가 채점하는” 문제

Claude Code는 코드 생성 능력이 뛰어나지만, 자기가 작성한 코드를 스스로 리뷰하는 데 근본적 한계가 있다. 같은 모델이 작성하고 같은 모델이 검증하면 같은 편향과 맹점이 반복된다. 개발자 커뮤니티에서는 이미 Claude Code로 코드를 작성한 뒤 OpenAI의 Codex로 리뷰를 돌리는 워크플로우를 수작업으로 구성해 쓰고 있었다.

OpenAI는 이 흐름을 인지하고, Claude Code의 공식 플러그인 시스템을 통해 자연스럽게 합류했다. 별도 창을 열거나 스크립트를 짤 필요 없이 Claude Code 터미널 안에서 /codex:review 한 줄로 다른 모델의 시선을 끌어올 수 있다.

flowchart LR
    A["Claude Code로\n코드 작성"] --> B["Codex Plugin\n리뷰 요청"]
    B --> C{"/codex:review\n/codex:adversarial-review\n/codex:rescue"}
    C --> D["Codex CLI\n(OpenAI 모델)"]
    D --> E["리뷰 결과\nClaude Code로 피드백"]
    E --> F["코드 수정\n& 반복"]

핵심 기능 — 세 가지 명령어가 바꾸는 리뷰 방식

/codex:review — 기본 코드 리뷰

현재 작업 중인 커밋되지 않은 변경 사항이나 특정 브랜치를 Codex가 읽고 리뷰한다. Codex CLI에서 /review를 직접 실행하는 것과 동일한 품질의 결과를 Claude Code 안에서 받을 수 있다.

/codex:review
/codex:review --base main
/codex:review --background

--base main처럼 기준 브랜치를 지정하면 PR 단위 리뷰도 가능하다. 다중 파일 변경은 시간이 걸릴 수 있어 --background로 백그라운드 실행 후 /codex:status로 진행 상황을 확인하는 패턴이 권장된다.

/codex:adversarial-review — 적대적 리뷰 (가장 많이 쓰이는 기능)

일반 리뷰가 “코드가 괜찮은지”를 묻는다면, adversarial-review는 “이 방향이 맞는지”를 묻는다. 설계 선택, 트레이드오프, 숨겨진 가정, 대안 접근을 집중 공략한다. 리뷰 대상 선택은 /codex:review와 동일하지만, 커스텀 포커스 텍스트를 추가할 수 있다.

/codex:adversarial-review --base main 캐싱과 재시도 설계가 정말 맞는지 검토해줘
/codex:adversarial-review --background race condition을 찾고 선택한 접근 방식을质疑해줘

이 명령어가 가장 널리 쓰이는 이유는 단순하다. Claude Code가 스스로 놓치는 “왜 이 방식을 선택했는가”를 다른 모델의 관점에서 압박받을 수 있기 때문이다.

/codex:rescue — 작업 위임

Codex에게 버그 조사, 수정 시도, 이전 작업 이어가기 같은 실제 코딩 작업을 통째로 맡긴다. Claude Code 세션 안에서 Codex를 하위 에이전트처럼 활용하는 셈이다.

/codex:rescue 왜 테스트가 실패하기 시작했는지 조사해줘
/codex:rescue --resume 저번 실행의 상위 수정을 적용해줘
/codex:rescue --model gpt-5.4-mini --effort medium 플래키 테스트를 조사해줘
/codex:rescue --background 회귀 문제를 조사해줘

--model--effort로 모델·추론 강도를 조절할 수 있다. spark를 지정하면 gpt-5.3-codex-spark로 매핑된다. --resume--fresh로 이전 세션을 이어가거나 새로 시작할지 결정한다.

관리 명령어

명령어용도
/codex:status실행 중/최근 작업 목록 확인
/codex:result완료된 작업의 결과 출력
/codex:cancel백그라운드 작업 취소
/codex:setupCodex 설치·인증 상태 확인

설치와 사용법

사전 요구은 ChatGPT 계정(무료 플랜 포함) 또는 OpenAI API 키, 그리고 Node.js 18.18 이상이다. Claude Code 터미널에서 다음 순서로 설치한다.

# 1. 마켓플레이스 추가
/plugin marketplace add openai/codex-plugin-cc

# 2. 플러그인 설치
/plugin install codex@openai-codex

# 3. 플러그인 새로고침
/reload-plugins

# 4. 설치 상태 확인
/codex:setup

/codex:setup은 Codex CLI가 설치되어 있는지, 로그인이 되어 있는지 확인해 준다. Codex가 없으면 npm으로 설치를 제안한다.

# Codex CLI 수동 설치
npm install -g @openai/codex

# 인증
!codex login

리뷰 게이트 (선택)

/codex:setup --enable-review-gate를 활성화하면 Claude의 응답 이후 자동으로 Codex 리뷰가 실행된다. 리뷰에서 문제가 발견되면 Claude가 먼저 수정하도록 응답이 차단된다.

주의할 점이 있다. Claude와 Codex가 서로 피드백을 주고받으며 긴 루프가 만들어질 수 있고, 양쪽 사용량이 빠르게 소모된다. 활성 세션을 직접 모니터링할 때만 켜는 것이 좋다.

장단점 분석

장점

토큰 절약. 리뷰를 위해 Claude의 컨텍스트를 추가로 소모하지 않는다. Codex가 독립적으로 읽고 분석하기 때문에 Claude 세션의 토큰 예산은 코드 작성에 집중할 수 있다.

상보적 강점. Claude는 긴 컨텍스트 처리와 복잡한 코드 생성에 강하고, Codex는 정밀한 코드 리뷰와 빠른 추론에 특화되어 있다. 각 모델이 잘하는 일을 분담하는 구조다.

adversarial 리뷰의 구조적 해결. 같은 모델의 편향을 넘어서는 검증이 “다른 창 열기 → 코드 복사 → 프롬프트 작성” 같은 수작업 없이 한 터미널에서 해결된다.

작업 위임으로 병렬 처리. Claude Code가 주 작업을 진행하는 동안 Codex에게 백그라운드로 버그 조사나 빠른 수정을 맡길 수 있다.

단점

두 모델 사용량 동시 관리. Claude Code 사용량과 Codex(OpenAI) 사용량을 따로 추적해야 한다. 무료 플랜에서는 양쪽 제한을 모두 신경 써야 한다.

세밀한 제어의 한계. 플러그인이 편리하지만, Codex CLI를 직접 실행하거나 OpenAI API를 직접 호출하면 프롬프트·파라미터를 더 정밀하게 조절할 수 있다. 플러그인은 이 과정을 추상화한 것이다.

리뷰 게이트의 사용량 리스크. 자동 리뷰 루프가 길어지면 양쪽 플랜의 사용량을 빠르게 소진할 수 있다.

실전 사용 시나리오

시나리오 1: PR 제출 전 최종 리뷰

# 기능 개발 완료 후
/codex:review --base main --background
# ... 다른 작업 계속 ...
/codex:status
/codex:result

Claude Code로 기능을 완성하고, PR을 열기 전에 Codex에 전체 변경 사항을 리뷰 맡긴다. 백그라운드로 돌리는 동안 다른 작업을 이어갈 수 있다.

시나리오 2: 아키텍처 결정 검증

/codex:adversarial-review --base main 이 DB 연결 설계가 장애 상황에서도 안정적인지, 더 단순한 대안은 없는지 검토해줘

중요한 설계 결정을 내린 뒤, 다른 모델의 관점에서 취약점과 대안을 압박한다. “코드가 괜찮은지”가 아니라 “이 길이 맞는지”를 묻는 단계에서 특히 유용하다.

시나리오 3: 백그라운드 버그 조사

/codex:rescue --background CI에서 빌드가 실패하는 원인을 조사해줘
/codex:rescue --model spark --effort medium 가장 가능성 높은 원인만 빠르게 찾아줘

Claude Code가 메인 작업에 집중하는 동안, Codex에게 가벼운 모델로 빠른 조사를 맡긴다. 결과는 /codex:result로 확인하고, 필요하면 codex resume <session-id>로 Codex 세션을 직접 이어갈 수도 있다.

설정 커스터마이징

프로젝트 루트에 .codex/config.toml을 두면 기본 모델과 추론 강도를 조절할 수 있다.

model = "gpt-5.4-mini"
model_reasoning_effort = "xhigh"

설정은 사용자 수준(~/.codex/config.toml) → 프로젝트 수준(.codex/config.toml) 순으로 적용되며, 프로젝트 설정은 프로젝트가 신뢰된 경우에만 로드된다.

🧠 치트시트

  • 설치: /plugin marketplace add openai/codex-plugin-cc/plugin install codex@openai-codex
  • 기본 리뷰: /codex:review --background (백그라운드 권장)
  • 설계 검증: /codex:adversarial-review --base main [포커스 텍스트]
  • 작업 위임: /codex:rescue --background [작업 설명]
  • 상태 확인: /codex:status/codex:result

공식 링크


다음 읽기


이 글은 AI를 활용해 작성되었으며, 공식 GitHub 리포지토리와 Anthropic 문서를 기반으로 사실 검증을 거쳤습니다.