Quota reset 알림이 왔는데도 quota exceeded가 계속 뜨면, 진짜로 quota가 안 풀린 경우보다 보는 범위가 다르거나, 이전 세션이 예전 상태를 계속 끌고 가는 경우가 더 많다. 특히 채팅의 /status는 현재 모델 provider 기준으로 usage를 보여줄 수 있고, openclaw status --usage는 provider별 usage를 더 넓게 보여준다. 이 차이를 모르고 한 화면만 보면, 실제보다 더 큰 장애처럼 느껴지기 쉽다.

여기에 세션까지 섞이면 더 헷갈린다. OpenClaw 공식 Session 문서 기준으로 세션 상태의 기준점은 gateway이고, daily reset 기본값도 gateway host의 로컬 시간 기준 오전 4시다. 그래서 remote mode에서는 내 노트북 화면보다 gateway host 상태가 더 중요할 때가 많다.

핵심은 간단하다. usage 범위 재확인 → active session 확인 → 새 짧은 요청으로 재현 분리. 이 순서로 자르면 대부분 5~10분 안에 방향이 잡힌다.

기본 구조를 먼저 보고 싶다면 07. Quota 기본 구조를 같이 읽는 편이 좋다.

이런 증상이면 이 문서부터 보면 된다

  • 리셋 알림은 왔는데 바로 quota exceeded가 다시 뜬다.
  • 일반 대화는 되는데 cron·자동화 흐름만 계속 막힌다.
  • 로컬 화면은 정상처럼 보이는데 실제 운영 잡은 실패한다.
  • 같은 긴 작업을 다시 돌릴수록 더 꼬이는 느낌이 든다.
flowchart LR
A[Quota 리셋 알림 확인] --> B{지금도 quota exceeded?}
B -- 아니오 --> G[정상 운영]
B -- 예 --> C[openclaw status --usage 확인]
C --> D[openclaw sessions --active 120 확인]
D --> E{새 짧은 요청도 막히는가?}
E -- 아니오 --> H[기존 세션 범위 문제]
E -- 예 --> I[반영 지연 또는 실제 quota 부족]
H --> J[세션 분리 후 재검증]
I --> J
J --> K[짧은 요청 2회 정상 확인]

칠판 치트시트

  1. /status 한 번 보고 전체 상태라고 단정하지 않는다
  2. openclaw status --usage로 provider 범위를 다시 본다
  3. openclaw sessions --active 120으로 살아 있는 세션을 본다
  4. 긴 작업 대신 새 짧은 요청 1회로 범위를 자른다
  5. remote mode면 gateway host 기준으로 다시 판단한다

왜 “리셋 안 됨”처럼 보이는가

공식 Usage Tracking 문서에 따르면 /statussession_status는 현재 세션 스냅샷이 비어 있을 때 최근 transcript usage를 일부 fallback으로 사용할 수 있다. 반면 CLI statusopenclaw status --usage는 provider별 usage 창을 더 넓게 보여준다.

즉, 아래처럼 서로 다른 화면이 서로 다른 범위를 말하고 있을 수 있다.

  • 채팅 /status: 현재 모델 provider 기준 상태를 빠르게 확인
  • openclaw status --usage: provider별 breakdown을 넓게 확인
  • openclaw sessions --active 120: 최근 살아 있는 세션 흐름을 분리해서 확인

여기서 많이 생기는 착시는 세 가지다.

  1. 리셋 알림은 왔지만 provider 반영이 몇 분 늦는 상태
  2. 특정 자동화 세션이 이전 실패 상태를 계속 끌고 가는 상태
  3. 로컬 화면을 보고 있는데 실제 기준은 gateway host 쪽인 상태

5분 복구 순서

1) usage를 넓게 다시 확인

openclaw status --usage

이 단계의 목적은 단순하다. 정말 계정 전체가 막힌 것인지, 아니면 특정 provider 또는 특정 흐름만 막혀 보이는 것인지를 나누는 것이다.

공식 status 문서 기준으로 --usage는 provider usage window를 X% left 형식으로 정규화해 보여준다. 그래서 채팅 화면에서 막혀 보였어도, 실제로는 특정 provider만 꽉 찼거나 다른 provider는 정상인 장면을 빨리 구분할 수 있다.

이때는 아래 두 가지만 보면 충분하다.

  • 지금 쓰는 모델 provider가 실제로 막혀 있는가
  • 다른 provider는 괜찮은데 현재 흐름만 막혀 있는가

2) 살아 있는 세션을 확인

openclaw sessions --active 120

공식 sessions 문서 기준으로 이 명령은 최근 120분 안의 active 세션을 가르는 데 적합하다. 핵심은 세션 숫자를 많이 읽는 게 아니라, 문제가 난 흐름이 아직 살아 있는지를 확인하는 것이다.

특히 아래를 먼저 본다.

  • cron/자동화가 같은 session window를 재사용하고 있는가
  • 오래 살아 있는 작업 세션이 반복 실패를 만들고 있는가
  • 메인 대화는 정상인데 특정 흐름만 계속 실패하는가

3) 긴 작업을 다시 던지지 말고 새 짧은 요청으로 자른다

여기서 가장 흔한 실수는 실패한 긴 작업을 그대로 다시 던지는 것이다. 그러면 원인이 더 흐려진다.

권장 흐름은 아래처럼 짧다.

  1. 새 세션 또는 새 대화에서 한 줄짜리 테스트 요청을 보낸다.
  2. 새 요청이 되면 기존 세션 범위 문제로 본다.
  3. 새 요청도 막히면 provider 반영 지연 또는 실제 quota 부족 쪽으로 본다.

예를 들어 원래 작업이 “문서 3개 읽고 정리해줘”였다면, 먼저 “한 줄로 현재 상태만 답해줘” 수준으로 잘라본다. 여기서 바로 응답이 오면 계정 전체 quota보다 기존 흐름이 꼬였을 가능성이 높다.

4) remote mode면 gateway host 기준으로 다시 본다

공식 Session Management 문서 기준으로 session state의 source of truth는 gateway다. 또한 daily reset 기본값도 gateway host 로컬 시간 기준 4:00 AM이다.

그래서 remote mode에서는 아래 질문을 꼭 같이 붙여야 한다.

  • 지금 보고 있는 usage가 gateway host 기준인가
  • 실제 문제 세션이 gateway 쪽 store에 아직 살아 있는가
  • 로컬에서는 멀쩡해 보여도 운영 잡은 gateway 쪽 기준으로 계속 실패하는가

이 질문을 빼먹으면 “내 화면에서는 되는데 왜 실제 작업은 안 되지?” 같은 착시가 반복된다.

빠른 판별표

보이는 증상가능성이 큰 원인첫 확인 포인트
리셋 알림 직후에도 바로 quota exceededprovider 반영 지연openclaw status --usage
메인 채팅은 되는데 cron만 실패오래 살아 있는 자동화 세션openclaw sessions --active 120
로컬 UI는 정상인데 실제 운영만 실패gateway host 기준 확인 누락remote mode / gateway 기준
같은 긴 작업만 반복 실패전체 quota보다 기존 흐름 오염새 짧은 요청 1회

현장 미니 사례 3개

사례 A) 07:00 리셋 알림 직후 바로 긴 작업을 다시 실행함

  • 상황: 알림을 보자마자 무거운 작업을 재시도함
  • 실제 원인: 알림 시점과 provider 반영 시점이 약간 어긋남
  • 처리: openclaw status --usage 확인 후 3~10분 안쪽에서 짧은 요청 1회만 재검증
  • 정리: “리셋 실패”가 아니라 “반영 지연”으로 좁혀짐

사례 B) 채팅은 되는데 자동화만 계속 막힘

  • 상황: 메인 대화는 정상인데 cron·루틴 흐름만 반복 실패
  • 실제 원인: 계정 전체 문제보다 오래 살아 있는 자동화 세션 재사용
  • 처리: openclaw sessions --active 120으로 흐름을 확인한 뒤 새 요청으로 재현 분리
  • 정리: 전체 장애처럼 보이던 문제가 특정 세션 문제로 축소됨

사례 C) 로컬 화면은 정상인데 원격 운영은 계속 실패

  • 상황: 내 브라우저에서는 괜찮아 보이는데 실제 서버 작업은 막힘
  • 실제 원인: gateway host 기준을 빼먹고 로컬 감각으로만 판단
  • 처리: gateway host 기준 usage와 session 상태를 다시 확인
  • 정리: 로컬 착시와 실제 운영 상태를 분리해 원인을 잡음

이렇게 확인되면 거의 복구다

아래 4개가 맞으면 실무에서는 대부분 정상 복구로 봐도 된다.

  • 새 짧은 요청이 2회 연속 정상 응답한다.
  • openclaw status --usage에서 목표 provider가 즉시 다시 꽉 차지 않는다.
  • openclaw sessions --active 120에서 문제 세션과 새 세션을 구분해서 설명할 수 있다.
  • remote mode라면 gateway host 기준으로도 같은 판단이 나온다.

재발 방지 팁

  • 리셋 알림 직후 첫 검사는 긴 작업이 아니라 한 줄 헬스체크로 한다.
  • quota reset 직후 5~10분은 무거운 자동화를 한꺼번에 몰지 않는다.
  • 중요한 자동화에는 “기존 세션 실패 시 새 세션으로 짧게 재검증” 규칙을 넣는다.
  • /statusopenclaw status --usage가 같은 범위를 보지 않을 수 있다는 점을 운영 규칙으로 고정한다.
  • remote mode 운영자는 로컬 느낌보다 gateway host를 먼저 본다.

한 줄 결론

리셋 알림 뒤 quota exceeded가 계속 뜰 때는, 보통 quota 자체보다 보는 범위와 붙잡고 있는 세션이 어긋난 상태인 경우가 더 많다.
openclaw status --usageopenclaw sessions --active 120 → 새 짧은 요청 1회 순서로 자르면, 대부분 빠르게 복구 방향이 잡힌다.

내부링크·다음글 연결 (10)

  1. 07. Quota 기본 구조
  2. 31. Quota 리셋 안 될 때 10분 복구 가이드
  3. 11. Scheduled reminder 떴는데 액션이 안 이어질 때
  4. 서브에이전트 분산운영
  5. 32. HEARTBEAT_OK 반복응답 해결
  6. 09. 예약 리마인더 중복발송 해결
  7. systemd 충돌) 해결
  8. 16. cron 시간 바꿨는데 예전 시각에 계속 돌 때
  9. 17. cron은 돌았는데 텔레그램 전달이 안 올 때
  10. 🚀 OpenClaw 인덱스

다음 추천 읽기: 31. Quota 리셋 안 될 때 10분 복구 가이드

※ 이 문서는 생성형 AI를 활용해 작성되었습니다.