npm package discovery and stats viewer.

Discover Tips

  • General search

    [free text search, go nuts!]

  • Package details

    pkg:[package-name]

  • User packages

    @[username]

Sponsor

Optimize Toolset

I’ve always been into building performant and accessible sites, but lately I’ve been taking it extremely seriously. So much so that I’ve been building a tool to help me optimize and monitor the sites that I build to make sure that I’m making an attempt to offer the best experience to those who visit them. If you’re into performant, accessible and SEO friendly sites, you might like it too! You can check it out at Optimize Toolset.

About

Hi, 👋, I’m Ryan Hefner  and I built this site for me, and you! The goal of this site was to provide an easy way for me to check the stats on my npm packages, both for prioritizing issues and updates, and to give me a little kick in the pants to keep up on stuff.

As I was building it, I realized that I was actually using the tool to build the tool, and figured I might as well put this out there and hopefully others will find it to be a fast and useful way to search and browse npm packages as I have.

If you’re interested in other things I’m working on, follow me on Twitter or check out the open source projects I’ve been publishing on GitHub.

I am also working on a Twitter bot for this site to tweet the most popular, newest, random packages from npm. Please follow that account now and it will start sending out packages soon–ish.

Open Software & Tools

This site wouldn’t be possible without the immense generosity and tireless efforts from the people who make contributions to the world and share their work via open source initiatives. Thank you 🙏

© 2026 – Pkg Stats / Ryan Hefner

clco-proxy

v0.2.0

Published

Anthropic-compatible multi-provider LLM proxy for Claude Code — use 42+ providers instead of expensive Claude subscriptions

Readme

clco-proxy

npm License: MIT Node

Use any LLM with Claude Code. One command, zero config.

Claude Code ──► clco-proxy (localhost:8080) ──► DeepSeek, GPT-5.5, Gemini, MiniMax, ...
                   model mapping + format translation

한국어


Quick Start

npm i -g clco-proxy
claude2

That's it. On first launch, an interactive TUI setup wizard walks you through picking a provider or preset. No config files to edit, no env vars to set.

One-time use without installing:

npx clco-proxy

claude2, clco, and clco-proxy are interchangeable. Pick whichever you like.

Features

Subscription login, no API key. Sign in with your existing ChatGPT Plus/Pro/Business or GitHub Copilot account. Browser-based OAuth flow, credentials stored locally.

42+ providers, one interface. Route Claude Code requests to DeepSeek, MiniMax, GLM, Groq, Gemini, OpenRouter, OpenAI, Mistral, xAI, Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, Ollama, LM Studio, and more.

Google AI Ultra auto-detection. Enter a Gemini API key and the proxy auto-detects your Google AI Studio subscription tier. Ultra subscribers get premium models (Gemini 3.1 Pro Preview, etc.) with automatic fallback when the subscription expires.

Intelligent setup wizard. First launch gives you three paths: log in with a subscription, enter a single API key, or pick a preset that maps different providers to each tier.

Real-time monitoring. Built-in dashboard shows request count, token usage, latency, and error rate broken down by provider.

Auto-update. Checks npm for newer versions and prompts when one is available.

Dynamic model catalog. Pulls live model data from models.dev, including pricing and capabilities. Suggests tier mappings based on cost and performance.

Structured logging. JSONL event logs with 1MB rotation. Request tracking, error reporting, and token accounting all written to ~/.clco-proxy/.

How It Works

The proxy sets two things in ~/.claude/settings.json:

  • ANTHROPIC_BASE_URL points to localhost:8080
  • ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL map to your chosen models

These are official Claude Code settings. The proxy never patches, decompiles, or reverse-engineers Claude Code. It receives Anthropic-format requests and translates to each provider's native format (OpenAI, passthrough, etc.) as needed.

Streaming, tool use, and reasoning all work transparently.

Presets

Pick a preset and everything is configured for you. Each preset maps three quality tiers (opus, sonnet, haiku) to specific models.

| Preset | Opus | Sonnet | Haiku | |---|------|--------|-------| | Best Value | DeepSeek V4-Pro | MiniMax M2.7 | DeepSeek V4-Flash | | Performance | GPT-5.5 | DeepSeek V4-Pro | DeepSeek V4-Flash | | Budget | GLM-5.1 | GLM-5-Turbo | Gemini 2.5 Flash | | Local | Qwen3-235B | Qwen3-30B | Qwen3-8B |

Providers

Subscription (browser login):

ChatGPT Plus/Pro/Business, GitHub Copilot

API key:

DeepSeek, MiniMax, GLM / Z.AI, Groq, Gemini (Google AI Studio), OpenRouter, OpenAI, Mistral, xAI (Grok), Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, OpenCode Zen, OpenCode Go, KiloCode

Local (free):

Ollama, LM Studio, Cloudflare Workers, AWS Bedrock, Azure AI Foundry

Enterprise gateways:

Vercel AI Gateway, OpenRouter (200+ models), any OpenAI-compatible endpoint

Requirements

  • Node.js >= 18
  • Claude Code installed (npm i -g @anthropic-ai/claude-code)

Commands

One command, full TUI menu:

claude2

Menu options:

  1. Launch Claude Code
  2. Settings (preset, model, port)
  3. Provider management (add, list, remove)
  4. Subscription management (login, logout, status)
  5. Proxy monitor (real-time dashboard)
  6. Stop proxy and exit
  7. Exit (keep proxy running as a daemon)

Logs and Data

Everything lives in ~/.clco-proxy/:

| File | Contents | |---|---| | config.json | Provider keys, model mappings, port | | subscriptions.json | OAuth tokens (ChatGPT, Copilot) | | events.log | Proxy request events (JSONL, 1MB rotation) | | daemon.pid | Background daemon process ID | | model-cache.json | Cached model catalog from models.dev |

Disclaimer

This tool sets environment variables (ANTHROPIC_BASE_URL, ANTHROPIC_DEFAULT_*_MODEL) that Claude Code reads natively. It does not modify, decompile, or reverse-engineer Claude Code.

Users are responsible for complying with each provider's terms of service. This project is not affiliated with Anthropic, OpenAI, Google, or any other provider. Use at your own risk.

License

MIT


clco-proxy

npm License: MIT Node

Claude Code에서 어떤 LLM이든 사용하세요. 명령어 하나, 설정 제로.

Claude Code ──► clco-proxy (localhost:8080) ──► DeepSeek, GPT-5.5, Gemini, MiniMax, ...
                   모델 매핑 + 형식 변환

English


시작하기

npm i -g clco-proxy
claude2

끝입니다. 처음 실행하면 대화형 TUI 설정 마법사가 나타나서 프로바이더나 프리셋을 선택하도록 안내합니다. 설정 파일을 직접 편집할 필요도, 환경변수를 설정할 필요도 없습니다.

설치 없이 한 번만 실행:

npx clco-proxy

claude2, clco, clco-proxy는 모두 같습니다. 편한 걸 쓰세요.

기능

구독 로그인, API 키 불필요. 이미 가지고 있는 ChatGPT Plus/Pro/Business 또는 GitHub Copilot 계정으로 로그인하세요. 브라우저 기반 OAuth 인증, 자격 증명은 로컬에만 저장됩니다.

42개 이상의 프로바이더, 하나의 인터페이스. Claude Code 요청을 DeepSeek, MiniMax, GLM, Groq, Gemini, OpenRouter, OpenAI, Mistral, xAI, Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, Ollama, LM Studio 등으로 라우팅합니다.

Google AI Ultra 자동 감지. Gemini API 키를 입력하면 Google AI Studio 구독 등급을 자동으로 감지합니다. Ultra 구독자는 프리미엄 모델(Gemini 3.1 Pro Preview 등)을 사용할 수 있으며, 구독 만료 시 자동으로 대체 모델로 전환됩니다.

지능형 설정 마법사. 첫 실행 시 세 가지 경로를 제공합니다: 구독으로 로그인, 단일 API 키 입력, 또는 각 티어마다 다른 프로바이더를 매핑하는 프리셋 선택.

실시간 모니터링. 내장 대시보드에서 요청 수, 토큰 사용량, 응답 시간, 오류율을 프로바이더별로 확인합니다.

자동 업데이트. npm에서 최신 버전을 확인하고 업데이트 가능 시 알려줍니다.

동적 모델 카탈로그. models.dev에서 실시간 모델 데이터를 가져옵니다. 가격, 성능 정보가 포함되어 있으며 비용과 성능 기반으로 티어 매핑을 자동 제안합니다.

구조화된 로깅. 1MB 순환 JSONL 이벤트 로그. 요청 추적, 오류 보고, 토큰 계산이 모두 ~/.clco-proxy/에 기록됩니다.

작동 원리

이 프록시는 ~/.claude/settings.json에 두 가지를 설정합니다:

  • ANTHROPIC_BASE_URLlocalhost:8080으로 지정
  • ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL을 선택한 모델로 매핑

이들은 Claude Code 공식 설정입니다. 프록시는 Claude Code를 패치, 디컴파일, 역공학하지 않습니다. Anthropic API 형식을 수신하여 각 프로바이더의 네이티브 형식(OpenAI, 패스스루 등)으로 변환합니다.

스트리밍, 도구 사용, 추론 모두 투명하게 동작합니다.

프리셋

프리셋을 선택하면 모든 것이 자동으로 설정됩니다. 각 프리셋은 세 가지 품질 티어(opus, sonnet, haiku)를 특정 모델에 매핑합니다.

| 프리셋 | Opus | Sonnet | Haiku | |---|------|--------|-------| | 최고 가성비 | DeepSeek V4-Pro | MiniMax M2.7 | DeepSeek V4-Flash | | 최고 성능 | GPT-5.5 | DeepSeek V4-Pro | DeepSeek V4-Flash | | 저예산 | GLM-5.1 | GLM-5-Turbo | Gemini 2.5 Flash | | 로컬 | Qwen3-235B | Qwen3-30B | Qwen3-8B |

프로바이더

구독 (브라우저 로그인):

ChatGPT Plus/Pro/Business, GitHub Copilot

API 키:

DeepSeek, MiniMax, GLM / Z.AI, Groq, Gemini (Google AI Studio), OpenRouter, OpenAI, Mistral, xAI (Grok), Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, OpenCode Zen, OpenCode Go, KiloCode

로컬 (무료):

Ollama, LM Studio, Cloudflare Workers, AWS Bedrock, Azure AI Foundry

엔터프라이즈 게이트웨이:

Vercel AI Gateway, OpenRouter (200개 이상의 모델), 모든 OpenAI 호환 엔드포인트

요구사항

  • Node.js >= 18
  • Claude Code 설치됨 (npm i -g @anthropic-ai/claude-code)

명령어

명령어 하나로 전체 TUI 메뉴 실행:

claude2

메뉴 옵션:

  1. Claude Code 실행
  2. 설정 (프리셋, 모델, 포트)
  3. 프로바이더 관리 (추가, 목록, 제거)
  4. 구독 관리 (로그인, 로그아웃, 상태)
  5. 프록시 모니터 (실시간 대시보드)
  6. 프록시 중지 후 종료
  7. 종료 (프록시를 데몬으로 유지)

로그 및 데이터

모든 것은 ~/.clco-proxy/에 저장됩니다:

| 파일 | 내용 | |---|---| | config.json | 프로바이더 키, 모델 매핑, 포트 | | subscriptions.json | OAuth 토큰 (ChatGPT, Copilot) | | events.log | 프록시 요청 이벤트 (JSONL, 1MB 순환) | | daemon.pid | 백그라운드 데몬 프로세스 ID | | model-cache.json | models.dev에서 캐시한 모델 카탈로그 |

면책 조항

이 도구는 Claude Code가 자체적으로 읽는 환경변수(ANTHROPIC_BASE_URL, ANTHROPIC_DEFAULT_*_MODEL)만 설정합니다. Claude Code를 변조, 디컴파일, 역공학하지 않습니다.

각 프로바이더의 이용약관 준수는 사용자 책임입니다. 이 프로젝트는 Anthropic, OpenAI, Google 및 어떤 프로바이더와도 관련이 없습니다. 사용으로 인한 책임은 사용자에게 있습니다.

라이선스

MIT