clco-proxy
v0.2.0
Published
Anthropic-compatible multi-provider LLM proxy for Claude Code — use 42+ providers instead of expensive Claude subscriptions
Maintainers
Readme
clco-proxy
Use any LLM with Claude Code. One command, zero config.
Claude Code ──► clco-proxy (localhost:8080) ──► DeepSeek, GPT-5.5, Gemini, MiniMax, ...
model mapping + format translationQuick Start
npm i -g clco-proxy
claude2That's it. On first launch, an interactive TUI setup wizard walks you through picking a provider or preset. No config files to edit, no env vars to set.
One-time use without installing:
npx clco-proxyclaude2, clco, and clco-proxy are interchangeable. Pick whichever you like.
Features
Subscription login, no API key. Sign in with your existing ChatGPT Plus/Pro/Business or GitHub Copilot account. Browser-based OAuth flow, credentials stored locally.
42+ providers, one interface. Route Claude Code requests to DeepSeek, MiniMax, GLM, Groq, Gemini, OpenRouter, OpenAI, Mistral, xAI, Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, Ollama, LM Studio, and more.
Google AI Ultra auto-detection. Enter a Gemini API key and the proxy auto-detects your Google AI Studio subscription tier. Ultra subscribers get premium models (Gemini 3.1 Pro Preview, etc.) with automatic fallback when the subscription expires.
Intelligent setup wizard. First launch gives you three paths: log in with a subscription, enter a single API key, or pick a preset that maps different providers to each tier.
Real-time monitoring. Built-in dashboard shows request count, token usage, latency, and error rate broken down by provider.
Auto-update. Checks npm for newer versions and prompts when one is available.
Dynamic model catalog. Pulls live model data from models.dev, including pricing and capabilities. Suggests tier mappings based on cost and performance.
Structured logging. JSONL event logs with 1MB rotation. Request tracking, error reporting, and token accounting all written to ~/.clco-proxy/.
How It Works
The proxy sets two things in ~/.claude/settings.json:
ANTHROPIC_BASE_URLpoints tolocalhost:8080ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODELmap to your chosen models
These are official Claude Code settings. The proxy never patches, decompiles, or reverse-engineers Claude Code. It receives Anthropic-format requests and translates to each provider's native format (OpenAI, passthrough, etc.) as needed.
Streaming, tool use, and reasoning all work transparently.
Presets
Pick a preset and everything is configured for you. Each preset maps three quality tiers (opus, sonnet, haiku) to specific models.
| Preset | Opus | Sonnet | Haiku | |---|------|--------|-------| | Best Value | DeepSeek V4-Pro | MiniMax M2.7 | DeepSeek V4-Flash | | Performance | GPT-5.5 | DeepSeek V4-Pro | DeepSeek V4-Flash | | Budget | GLM-5.1 | GLM-5-Turbo | Gemini 2.5 Flash | | Local | Qwen3-235B | Qwen3-30B | Qwen3-8B |
Providers
Subscription (browser login):
ChatGPT Plus/Pro/Business, GitHub Copilot
API key:
DeepSeek, MiniMax, GLM / Z.AI, Groq, Gemini (Google AI Studio), OpenRouter, OpenAI, Mistral, xAI (Grok), Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, OpenCode Zen, OpenCode Go, KiloCode
Local (free):
Ollama, LM Studio, Cloudflare Workers, AWS Bedrock, Azure AI Foundry
Enterprise gateways:
Vercel AI Gateway, OpenRouter (200+ models), any OpenAI-compatible endpoint
Requirements
- Node.js >= 18
- Claude Code installed (
npm i -g @anthropic-ai/claude-code)
Commands
One command, full TUI menu:
claude2Menu options:
- Launch Claude Code
- Settings (preset, model, port)
- Provider management (add, list, remove)
- Subscription management (login, logout, status)
- Proxy monitor (real-time dashboard)
- Stop proxy and exit
- Exit (keep proxy running as a daemon)
Logs and Data
Everything lives in ~/.clco-proxy/:
| File | Contents |
|---|---|
| config.json | Provider keys, model mappings, port |
| subscriptions.json | OAuth tokens (ChatGPT, Copilot) |
| events.log | Proxy request events (JSONL, 1MB rotation) |
| daemon.pid | Background daemon process ID |
| model-cache.json | Cached model catalog from models.dev |
Disclaimer
This tool sets environment variables (ANTHROPIC_BASE_URL, ANTHROPIC_DEFAULT_*_MODEL) that Claude Code reads natively. It does not modify, decompile, or reverse-engineer Claude Code.
Users are responsible for complying with each provider's terms of service. This project is not affiliated with Anthropic, OpenAI, Google, or any other provider. Use at your own risk.
License
clco-proxy
Claude Code에서 어떤 LLM이든 사용하세요. 명령어 하나, 설정 제로.
Claude Code ──► clco-proxy (localhost:8080) ──► DeepSeek, GPT-5.5, Gemini, MiniMax, ...
모델 매핑 + 형식 변환시작하기
npm i -g clco-proxy
claude2끝입니다. 처음 실행하면 대화형 TUI 설정 마법사가 나타나서 프로바이더나 프리셋을 선택하도록 안내합니다. 설정 파일을 직접 편집할 필요도, 환경변수를 설정할 필요도 없습니다.
설치 없이 한 번만 실행:
npx clco-proxyclaude2, clco, clco-proxy는 모두 같습니다. 편한 걸 쓰세요.
기능
구독 로그인, API 키 불필요. 이미 가지고 있는 ChatGPT Plus/Pro/Business 또는 GitHub Copilot 계정으로 로그인하세요. 브라우저 기반 OAuth 인증, 자격 증명은 로컬에만 저장됩니다.
42개 이상의 프로바이더, 하나의 인터페이스. Claude Code 요청을 DeepSeek, MiniMax, GLM, Groq, Gemini, OpenRouter, OpenAI, Mistral, xAI, Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, Ollama, LM Studio 등으로 라우팅합니다.
Google AI Ultra 자동 감지. Gemini API 키를 입력하면 Google AI Studio 구독 등급을 자동으로 감지합니다. Ultra 구독자는 프리미엄 모델(Gemini 3.1 Pro Preview 등)을 사용할 수 있으며, 구독 만료 시 자동으로 대체 모델로 전환됩니다.
지능형 설정 마법사. 첫 실행 시 세 가지 경로를 제공합니다: 구독으로 로그인, 단일 API 키 입력, 또는 각 티어마다 다른 프로바이더를 매핑하는 프리셋 선택.
실시간 모니터링. 내장 대시보드에서 요청 수, 토큰 사용량, 응답 시간, 오류율을 프로바이더별로 확인합니다.
자동 업데이트. npm에서 최신 버전을 확인하고 업데이트 가능 시 알려줍니다.
동적 모델 카탈로그. models.dev에서 실시간 모델 데이터를 가져옵니다. 가격, 성능 정보가 포함되어 있으며 비용과 성능 기반으로 티어 매핑을 자동 제안합니다.
구조화된 로깅. 1MB 순환 JSONL 이벤트 로그. 요청 추적, 오류 보고, 토큰 계산이 모두 ~/.clco-proxy/에 기록됩니다.
작동 원리
이 프록시는 ~/.claude/settings.json에 두 가지를 설정합니다:
ANTHROPIC_BASE_URL을localhost:8080으로 지정ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODEL을 선택한 모델로 매핑
이들은 Claude Code 공식 설정입니다. 프록시는 Claude Code를 패치, 디컴파일, 역공학하지 않습니다. Anthropic API 형식을 수신하여 각 프로바이더의 네이티브 형식(OpenAI, 패스스루 등)으로 변환합니다.
스트리밍, 도구 사용, 추론 모두 투명하게 동작합니다.
프리셋
프리셋을 선택하면 모든 것이 자동으로 설정됩니다. 각 프리셋은 세 가지 품질 티어(opus, sonnet, haiku)를 특정 모델에 매핑합니다.
| 프리셋 | Opus | Sonnet | Haiku | |---|------|--------|-------| | 최고 가성비 | DeepSeek V4-Pro | MiniMax M2.7 | DeepSeek V4-Flash | | 최고 성능 | GPT-5.5 | DeepSeek V4-Pro | DeepSeek V4-Flash | | 저예산 | GLM-5.1 | GLM-5-Turbo | Gemini 2.5 Flash | | 로컬 | Qwen3-235B | Qwen3-30B | Qwen3-8B |
프로바이더
구독 (브라우저 로그인):
ChatGPT Plus/Pro/Business, GitHub Copilot
API 키:
DeepSeek, MiniMax, GLM / Z.AI, Groq, Gemini (Google AI Studio), OpenRouter, OpenAI, Mistral, xAI (Grok), Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, OpenCode Zen, OpenCode Go, KiloCode
로컬 (무료):
Ollama, LM Studio, Cloudflare Workers, AWS Bedrock, Azure AI Foundry
엔터프라이즈 게이트웨이:
Vercel AI Gateway, OpenRouter (200개 이상의 모델), 모든 OpenAI 호환 엔드포인트
요구사항
- Node.js >= 18
- Claude Code 설치됨 (
npm i -g @anthropic-ai/claude-code)
명령어
명령어 하나로 전체 TUI 메뉴 실행:
claude2메뉴 옵션:
- Claude Code 실행
- 설정 (프리셋, 모델, 포트)
- 프로바이더 관리 (추가, 목록, 제거)
- 구독 관리 (로그인, 로그아웃, 상태)
- 프록시 모니터 (실시간 대시보드)
- 프록시 중지 후 종료
- 종료 (프록시를 데몬으로 유지)
로그 및 데이터
모든 것은 ~/.clco-proxy/에 저장됩니다:
| 파일 | 내용 |
|---|---|
| config.json | 프로바이더 키, 모델 매핑, 포트 |
| subscriptions.json | OAuth 토큰 (ChatGPT, Copilot) |
| events.log | 프록시 요청 이벤트 (JSONL, 1MB 순환) |
| daemon.pid | 백그라운드 데몬 프로세스 ID |
| model-cache.json | models.dev에서 캐시한 모델 카탈로그 |
면책 조항
이 도구는 Claude Code가 자체적으로 읽는 환경변수(ANTHROPIC_BASE_URL, ANTHROPIC_DEFAULT_*_MODEL)만 설정합니다. Claude Code를 변조, 디컴파일, 역공학하지 않습니다.
각 프로바이더의 이용약관 준수는 사용자 책임입니다. 이 프로젝트는 Anthropic, OpenAI, Google 및 어떤 프로바이더와도 관련이 없습니다. 사용으로 인한 책임은 사용자에게 있습니다.
