OpenClaw, AI API 비용 0원으로 무제한 돌리기: agent-cli-to-api + Cursor CLI 실전 세팅
OpenClaw를 커스텀 프로바이더로 연결해 AI API 비용 없이 고성능/안정적인 개인 봇을 운영하는 방법. agent-cli-to-api와 Cursor CLI 연동, 설치부터 트러블슈팅까지 한 번에 정리합니다.
OpenClaw, AI API 비용 0원으로 무제한 돌리기: agent-cli-to-api + Cursor CLI 실전 세팅
매달 API 요금제에 묶여서 에이전트 자동화를 포기하고 있다면, 이 글이 가장 빠른 탈출 루트다.
핵심은 간단하다. OpenClaw의 모델 프로바이더를 agent-cli-to-api로 교체하고, 내부적으로 Cursor CLI를 커스텀 프로바이더처럼 연결하면 된다.
결과적으로:
- OpenClaw는 기존처럼 메신저(텔레그램/슬랙 등)에서 명령을 받는다
- 모델 호출은 커스텀 로컬 경로를 탄다
- 외부 AI API 키 과금 없이도 사실상 무제한에 가까운 운영이 가능해진다
이 조합이 왜 강력한가
일반적인 구조는 OpenClaw → OpenAI/Anthropic API 형태다.
이번 구조는 아래처럼 바뀐다.
OpenClaw → Custom Provider(agent-cli-to-api) → Cursor CLI 모델 호출
이렇게 바꾸면 장점이 크다.
- 비용 구조 최적화: 고정 API 과금 의존도를 크게 낮출 수 있다.
- 운영 안정성: 로컬/자체 환경 기반이라 제어권이 높다.
- 확장성: OpenClaw 스킬/서브에이전트와 그대로 결합 가능하다.
- 성능 체감: 코드 작업 중심 워크로드에서 빠르고 실용적인 응답이 나온다.
준비물
- macOS 또는 Linux 서버(상시 실행 권장)
- Node.js 20+
- OpenClaw 설치 환경
- Cursor CLI 사용 가능한 환경
- Git
# 버전 확인
node -v
npm -v
git --version
1) 프로젝트 클론
먼저 브리지 서버 역할의 저장소를 클론한다.
이 브리지 서버는 OpenAI 호환 API 엔드포인트를 제공하고, 실제 모델 실행은 내부에서 **CLI(예: Cursor CLI)**를 통해 처리하는 구조다.
git clone https://github.com/dev-thug/agent-cli-to-api.git
cd agent-cli-to-api
2) 의존성 설치 및 서버 실행
# 의존성 설치
uv sync
OpenClaw 연동 기준으로는 포트 11434로 게이트웨이를 띄우는 구성을 권장한다.
방법 A) 직접 실행
uv run agent-cli-to-api cursor-agent --host 127.0.0.1 --port 11434
방법 B) launchd로 백그라운드 실행(macOS, 권장)
scripts/install_launchd.sh --provider cursor-agent --host 127.0.0.1 --port 11434
실사용에서는 직접 작성한 launchd 스크립트 방식을 추천한다. 재부팅 이후 자동 실행과 프로세스 유지 관리가 훨씬 안정적이기 때문이다.
11434를 쓰는 이유는 OpenClaw에서 Custom Provider 기본 포트가 11434로 맞춰져 있어 설정 충돌을 줄일 수 있기 때문이다.
브리지가 정상 구동되면 아래와 같은 OpenAI 호환 엔드포인트를 제공한다.
http://127.0.0.1:11434/v1/chat/completions- OpenAI 호환 형태의 요청/응답 포맷
3) OpenClaw 모델을 커스텀 프로바이더로 연결
OpenClaw 모델 설정에서 외부 SaaS API 대신, 방금 띄운 로컬 브리지 엔드포인트를 지정한다.
openclaw configure --section models
모델 선택 화면에서 Custom Provider를 선택해야 한다.
설정 포인트는 다음과 같다.
- provider/base URL:
http://127.0.0.1:11434/v1 - model name: 브리지에서 노출하는 모델 ID(예:
auto또는 프로젝트 문서 기준 값) - api key: 반드시 아무 값이라도 입력
주의: API key를 비워두면 OpenClaw에서 에러가 발생한다. 실제 인증이 필요 없는 환경이어도 더미 문자열(예:
dummy-key)을 반드시 넣어야 한다.
이 시점부터 OpenClaw는 커스텀 프로바이더 경로를 통해 모델 응답을 받는다.
4) Cursor CLI 연동 확인 (핵심)
이 구조의 핵심은 agent-cli-to-api가 Cursor CLI를 AI 백엔드처럼 호출한다는 점이다.
즉, OpenClaw 입장에서는 “일반 API”처럼 보이지만, 실제 계산은 Cursor CLI 경로에서 처리된다.
검증 순서:
- 브리지 서버 단독 호출 테스트
- OpenClaw에서 동일 프롬프트 호출
- 두 결과가 정상 매핑되는지 확인
가능하면 간단한 테스트 프롬프트부터 시작해라.
- "현재 디렉토리 파일 구조 요약"
- "이 에러 로그 원인 3개 제시"
- "커밋 메시지 초안 작성"
5) 텔레그램까지 연결해서 실사용하기
openclaw configure --section channels
openclaw gateway start
이제 텔레그램에서 바로:
- 코드 리팩토링 요청
- 로그 분석
- 배포 체크리스트 생성
- 블로그 초안 작성
같은 작업을 OpenClaw에 던지면, 백그라운드에서 커스텀 프로바이더 경로로 처리된다.
추천 운영 구조 (안정성)
실제로 오래 돌릴 때는 아래를 권장한다.
- 브리지 서버 프로세스 매니저 사용:
pm2또는 systemd - 헬스체크 엔드포인트 모니터링
- 로그 분리: OpenClaw 로그 / 브리지 로그 / 채널 로그
- 재시작 정책: 장애 시 자동 복구
# 예시: pm2로 브리지 상시 실행
npm i -g pm2
pm2 start "npm run start" --name agent-cli-to-api
pm2 save
자주 막히는 포인트 (트러블슈팅)
1. OpenClaw는 켜졌는데 응답이 없을 때
- 브리지 서버 포트가 실제로 열려 있는지 확인
- OpenClaw model base URL 오타 확인
- 방화벽/로컬 바인딩(
127.0.0.1vs0.0.0.0) 확인
2. 응답 속도가 느릴 때
- 모델 파라미터(temperature/max tokens) 보수적으로 설정
- 동시에 돌아가는 서브에이전트 개수 제한
- 장문 프롬프트는 요약 후 전달
3. 출력 포맷이 깨질 때
- OpenAI 호환 응답 스키마 매핑 확인
- 스트리밍 on/off 설정 일치 여부 확인
FAQ
Q1) 진짜 완전 무료인가?
환경에 따라 다르다. 다만 외부 API 과금 의존도를 크게 줄이고, 로컬/자체 경로로 운영비를 낮추는 데 매우 효과적이다.
Q2) 초보도 따라 할 수 있나?
가능하다. 이 글 순서대로 하면 클론 → 실행 → OpenClaw 모델 연결 → 채널 연결까지 한 번에 끝난다.
Q3) 운영 안정성은 어떤가?
프로세스 매니저, 헬스체크, 로그 분리만 해도 실제 운영 안정성은 크게 올라간다.
마무리
OpenClaw + agent-cli-to-api + Cursor CLI 조합은 “AI 자동화를 계속 돌리고 싶은데 API 비용이 부담되는” 개발자에게 가장 현실적인 구조다.
한 번만 세팅해두면, 이후에는 메신저에서 명령만 던져도 꽤 강력한 개인 에이전트 워크플로우를 유지할 수 있다.
원하면 다음 글에서:
- Docker 기반 배포 템플릿
- PM2/systemd 실전 설정 파일
- 장애 대응 체크리스트
까지 이어서 정리해보겠다.