AI 코딩 도구를 오래 쓸수록 성능보다 먼저 체감되는 문제가 있다. 답이 너무 길어서 돈이 들고, 읽는 시간이 늘고, 정작 필요한 한 줄을 찾기 어려워진다는 점이다. 메이커 에반은 이 문제를 줄이는 방법으로 Caveman이라는 짧은 응답 습관을 소개한다.

flowchart LR
A[AI 답변이 너무 길다] --> B[토큰 비용과 확인 시간이 늘어난다]
B --> C[Caveman처럼 짧은 응답 규칙을 강하게 건다]
C --> D[더 짧고 빠른 작업 흐름을 기대한다]

핵심 요약

  • 긴 AI 답변은 토큰 비용과 확인 시간을 동시에 늘린다.
  • 영상은 이를 줄이는 방식으로 Caveman이라는 짧은 응답 습관을 보여 준다.
  • 핵심 아이디어는 복잡하지 않다. 불필요한 인사말과 장황한 설명을 줄이고, 작업형 답변만 남기자는 것이다.
  • 다만 이 방식은 공식 제품 기능이라기보다 응답 스타일을 강하게 제한하는 운영 패턴에 가깝다.

왜 지금 중요한가

Claude Code와 비슷한 도구는 정답 자체도 중요하지만, 얼마나 짧고 반복 가능하게 읽히느냐가 생산성에 큰 영향을 준다. Anthropic 공식 문서도 Claude Code를 실제 워크플로에 맞춰 쓰는 방식을 설명하고 있고, OpenAI 프롬프트 가이드 역시 원하는 출력 형식을 명확히 고정할수록 결과 편차가 줄어든다고 안내한다. 참고: Claude Code Overview, Claude Code Common Workflows, OpenAI Prompt Engineering Guide.

즉 이 영상의 본질은 “신기한 스킬 소개”보다 AI에게 장황하게 말하지 말라고 운영 규칙을 주는 것에 있다.

영상에서 건질 핵심 포인트

1) 긴 답변은 비용 문제이자 확인 시간 문제다

영상은 긴 AI 답변의 문제를 아주 현실적으로 짚는다. 토큰 요금이 붙는 도구에서는 답이 길수록 비용이 늘고, 사용자는 결국 필요한 코드 한 줄이나 의사결정 한 문장만 찾고 싶은데 설명이 과하게 길어질 수 있다.

이건 작은 팀일수록 더 크게 느껴진다. 예를 들어 리뷰 댓글, 리팩터링 제안, 디버깅 힌트가 전부 장문으로 오면 답이 정확하더라도 실제 작업 속도는 늦어진다.

검증: 같은 질문을 평소 프롬프트와 짧은 출력 규칙을 준 프롬프트로 각각 던져 보고, 답변 길이와 확인 시간을 비교해 보면 체감 차이가 바로 난다.

2) 핵심은 도구 추가보다 출력 규칙 고정이다

영상에서는 Caveman을 스킬처럼 소개하지만, 더 중요한 건 “짧게 말하라”는 운영 기준을 명확히 넣는 점이다. 예를 들어 다음과 같이 기준을 정할 수 있다.

  • 설명보다 결론 먼저
  • 불필요한 인사말 제거
  • 목록은 짧게
  • 코드 수정이라면 변경 이유보다 수정 결과를 먼저 제시

이런 기준은 Claude Code의 메모리 파일이나 팀 공통 프롬프트에 녹여 둘 수 있다. 관련 공식 문서: Claude Code Memory.

3) 짧아진다고 항상 더 좋은 것은 아니다

여기서 조심할 점도 있다. 답변을 무조건 짧게 만들면 맥락이 빠져서 오히려 검토 시간이 늘 수 있다. 특히 아키텍처 비교, 장애 원인 분석, 보안 이슈 설명처럼 배경이 필요한 작업은 너무 압축하면 위험하다.

그래서 가장 현실적인 운영은 이렇다.

  • 기본값은 짧게
  • 설계·리스크·보안 질문은 길이 제한을 완화
  • 결과 형식을 먼저 고정하고, 필요할 때만 설명을 늘림

이 방식이면 장문 습관은 줄이면서도 꼭 필요한 설명은 남길 수 있다.

바로 실행해 보기

  1. 평소 자주 묻는 질문 3개를 고른다.
  2. 기존 방식과 “결론 먼저, 5줄 이내, 불필요한 서론 금지” 규칙을 준 방식으로 각각 실행한다.
  3. 토큰 길이, 읽는 시간, 실제 반영 속도를 비교한다.
  4. 효과가 있으면 개인 프롬프트나 팀 공통 규칙에 짧은 출력 기준을 고정한다.

함께 보면 좋은 문서

영상 메타

수집 품질

  • 자막 세그먼트: 187개
  • 자막 문자수: 3410자
  • 챕터 추출: 11개
  • 콘텐츠 생성: Subagent 기반

AI 활용 고지: 이 문서는 원영상과 Claude Code·OpenAI 공식 문서를 함께 참고해 생성형 AI 초안을 작성한 뒤, 실제 운영 관점에서 과장되기 쉬운 부분을 정리하며 편집했습니다.