2025년은 “에이전트를 만드는 해”였다. 2026년은 “에이전트를 통제하는 해”가 되고 있다.

AI 에이전트는 강력하다. 간단한 프롬프트만으로 코드를 짜고, 문서를 쓰고, 데이터를 분석한다. 그런데 규모가 커지면 이야기가 달라진다. 여러 에이전트를 조합하거나, 장시간 작업을 맡기거나, 서비스 수준에서 운영하려 들면 곧바로 한계에 부딪힌다. 할루시네이션, 컨텍스트 누수, 보안 사고, 품질 편차. “일단 만들어보고 고치자”는 방식이 더 이상 통하지 않는 지점에 도달한 것이다.

이 문제를 해결하기 위해 등장한 개념이 **하네스 엔지니어링(Harness Engineering)**이다. 하네스는 원래 말(馬)에 씌우는 마구(馬具)를 뜻한다. 말의 힘을 안전하게 제어하고 유용한 방향으로 이끄는 도구. AI 에이전트에도 똑같은 원리를 적용하자는 것이다. 에이전트 자체를 바꾸는 게 아니라, 에이전트가 일하는 방식을 설계하는 것.

flowchart LR
    A["강력한 AI 에이전트<br/>(GPT-5, Claude, Gemini)"] --> B["하네스<br/>제어·감시·개선"]
    B --> C["안정적 서비스<br/>예측 가능한 출력"]
    B --> D["안전한 운영<br/>가드레일·거버넌스"]
    B --> E["지속적 개선<br/>피드백 루프"]

🧠 치트시트: 하네스 엔지니어링 핵심 3요소

  • 가드레일: 에이전트의 입출력을 실시간으로 필터링하는 안전망
  • 데이터 거버넌스: 접근 권한·민감 정보를 조직 차원에서 통제
  • 모니터링·피드백: 오류를 감지하고 다음 동작에 반영하는 순환 구조

하네스가 풀려는 세 가지 문제

1. 컨텍스트 한계: “기억력이 부족하다”

AI 에이전트의 컨텍스트 윈도우는 보통 20만~100만 토큰 수준이다. 큰 프로젝트를 한 번에 처리하기엔 턱없이 부족하다. 복잡한 작업을 맡기면 중간에 맥락을 잃고, 앞서 한 일을 반복하거나 엉뚱한 방향으로 새나간다.

Anthropic의 실험에서는 이 문제를 극명하게 보여준다. Claude에게 “claude.ai 클론을 만들어라”라고만 지시하면, 에이전트는 한 번에 모든 걸 구현하려다 컨텍스트가 바닥나고, 다음 세션은 앞뒤가 안 맞는 코드를 물려받아 또다시 삽질을 반복한다.

해결책은 **점진적 진행(Incremental Progress)**이다. Anthropic은 이를 위해 두 가지 에이전트를 분리했다.

  • 초기화 에이전트: 첫 세션에서 환경을 세팅하고, 기능 목록(Feature List)을 JSON으로 작성
  • 코딩 에이전트: 이후 매 세션에서 한 가지 기능씩만 구현하고, claude-progress.txt에 진행 상황을 기록

이렇게 하면 매 세션이 깨끗한 상태에서 시작하고, 이전 세션이 무엇을 했는지 파일과 git 로그로 즉시 파악할 수 있다.

2. 품질 드리프트: “시간이 지나면 코드가 썩는다”

OpenAI의 Codex 실험은 이 문제를 생생하게 증명한다. 5개월간 코드 한 줄도 직접 작성하지 않고, 백만 줄짜리 제품을 Codex만으로 구축하는 실험이었다. 결과는 놀라웠지만, 동시에 새로운 병목도 드러났다.

에이전트는 이미 존재하는 패턴을 그대로 복제한다. 좋은 패턴이든 나쁜 패턴이든. 시간이 지나면 코드베이스 전체에 일관성 없는 스타일이 퍼지는데, OpenAI 팀은 초기에 매주 금요일 하루 종일 “AI가 만든 코드 정리”에 시간을 쏟았다고 한다. 확장이 불가능한 방식이었다.

해결책은 **기계적 강제(Mechanical Enforcement)**다. OpenAI는 다음을 적용했다.

  • AGENTS.md를 “백과사전”이 아니라 **“목차”**로 취급. 약 100줄로 핵심만 남기고, 상세 문서는 docs/ 디렉토리에 분산 배치
  • 커스텀 린터로 아키텍처 규칙을 정적 검사. 린트 에러 메시지 자체에 수정 지침을 삽입
  • “문서 가드닝” 에이전트가 정기적으로 오래된 문서를 발견해 수정 PR을 자동 생성

핵심 교훈: “더 열심히 해”라고 에이전트에게 말하는 건 아무 도움이 안 된다. 에이전트가 실수할 수 없는 구조를 만들어야 한다.

3. 보안·통제: “에이전트가 어디까지 갈지 모른다”

조직이 인식하지 못한 사이 직원들이 무단으로 AI 도구를 쓰는 섀도우 AI(Shadow AI) 현상이 확산되면서, 데이터 유출과 품질 불균형이 현실적인 위협이 됐다.

하네스의 가드레일데이터 거버넌스가 바로 이 지점을 겨냥한다.

  • 입력 단계: 프롬프트 인젝션(악의적 지시 주입)이나 기밀 정보 혼입을 자동 감지·차단
  • 출력 단계: 유해 콘텐츠, 할루시네이션을 자동 필터링
  • 접근 제어: 직급·역할에 따라 에이전트가 접근할 수 있는 정보를 제한
  • 출력 검증: 생성된 답변의 무결성과 컴플라이언스 준수 여부를 자동 확인

Meta의 Llama Guard, NVIDIA의 NeMo Guardrails 같은 오픈소스 프레임워크가 이미 이러한 제어를 구현하는 기반을 제공하고 있다.

실전에서 하네스는 어떻게 구성되나?

스킬(Skill): 에이전트의 사내 매뉴얼

작업 시 참고해야 할 지침, 라이브러리 사용법, 주의사항을 저장해두는 기능이다. 상황에 따라 동적으로 불러와지는 프롬프트로, 예를 들어 프로젝트에서 사용하는 API 스펙을 스킬로 정의해두면 관련 작업 시 자동 참조된다.

서브 에이전트(Sub-agent): 일 잘하는 부하직원

특정 작업을 하위 에이전트에게 위임하는 구조다. 메인 에이전트가 지시하고, 하위 에이전트는 별도 세션에서 작업한 뒤 결과만 전달하고 소멸한다. 메인 세션의 컨텍스트를 소모하지 않는 게 핵심이다. 코드 리뷰에 특히 적합하다. 구현 맥락 없이 제3자 시선으로 코드를 평가할 수 있기 때문이다.

포크(Fork): 기억을 복제하는 분신술

현재 대화 세션의 컨텍스트를 그대로 복제해 새로운 분기를 만드는 기능. 설계를 깊이 논의한 뒤, 그 맥락을 보존한 채 후속 작업(문서화, 리뷰 반영 등)을 진행할 수 있다. “앞에서 뭐 했는지 다시 설명해줘”가 필요 없는 구조다.

flowchart TB
    subgraph "하네스 엔지니어링 구조"
        A["메인 에이전트<br/>(작업 지시·통합)"]
        B["스킬<br/>(지침·매뉴얼)"]
        C["서브 에이전트<br/>(코드 리뷰·QA)"]
        D["포크<br/>(컨텍스트 복제)"]
        E["가드레일<br/>(입출력 필터링)"]
        F["모니터링<br/>(실시간 추적)"]
    end

    A -->|"참조"| B
    A -->|"위임"| C
    A -->|"분기"| D
    E -->|"제어"| A
    F -->|"피드백"| A

글로벌 기업은 이미 실전에 적용 중

OpenAI는 Codex로 백만 줄 코드를 작성하는 과정에서 하네스를 핵심 방법론으로 삼았다. 엔지니어 3명이 5개월간 1,500개 PR을 처리했다. 사람은 코드를 작성하지 않고, 환경을 설계하고 의도를 명시하는 데만 집중했다.

Anthropic은 장시간 실행 에이전트를 위한 하네스 구조를 공식 문서화했다. 핵심은 “에이전트가 매 세션을 깨끗한 상태에서 시작하도록 만드는 것”. 기능 목록(JSON), 진행 파일(txt), git 커밋 메시지라는 세 가지 아티팩트로 세션 간 맥락을 연결한다.

Google DeepMind 엔지니어 Philipp Schmid은 이렇게 요약했다.

“작업이 길고 복잡해질수록 AI 모델이 작업 흐름을 안정적으로 실행할 수 있게 만드는 시스템이 중요하며, 그 시스템이 에이전트 하네스다.”

하네스 없이 시작하면 안 되나?

아니다. 하네스는 만능 도구가 아니다.

아이디어가 아직 모호하거나 검증되지 않은 단계라면, 하네스 구축보다 결과물을 빠르게 만들어 피드백 루프를 도는 편이 훨씬 유리하다. Replit이나 Lovable 같은 서비스는 웹 서비스 제작에 특화된 하네스가 이미 내장되어 있어, 복잡한 설정 없이도 즉시 시작할 수 있다.

반대로 크고 복잡한 작업을 높은 품질로 완수해야 하는 상황이라면, 하네스 구축은 선택이 아니라 필수다. 좋은 하네스를 구축하면:

  • 더 나은 설계와 코드 품질을 달성할 수 있다
  • 버그 수정 프롬프트 반복 등 개발자의 반복 개입이 줄어든다
  • 개발자는 문제 정의와 설계에 집중하고, 구현과 검증의 반복은 에이전트에게 맡길 수 있다

핵심 요약

하네스 엔지니어링은 “AI를 통제하기 위한 보호막”이 아니다. AI의 힘을 최대한 끌어내면서도, 그 힘이 예측 가능한 방향으로만 작동하도록 설계하는 정밀 핸들이자 안전벨트다.

2025년은 누가 더 강력한 에이전트를 만드느냐를 겨루던 시기였다. 2026년은 그 에이전트를 어떻게 안전하게, 안정적으로, 대규모로 운영하느냐를 가리는 시기가 되고 있다. 그 경쟁의 무기가 바로 하네스 엔지니어링이다.


더 보기

참고 자료