claude-team
v0.4.0
Published
Multi-agent MCP Server for Claude Code, Windsurf, Cursor - AI development team collaboration
Maintainers
Readme
Claude Team
🤖 让 Claude Code / Windsurf / Cursor 同时使用 GPT、Claude、Gemini 等多个模型协作完成任务
✨ 特性
- 🤖 多模型协作 - 配置多个模型,各自发挥所长,协作完成任务
- 🧠 智能任务分配 - 主模型分析任务,自动分配给最合适的模型执行
- 🌐 支持中转 API - 自定义 Base URL,兼容各种代理服务
- 🔧 灵活配置 - 每个模型可独立配置 API Key、URL、模型 ID
- 📝 协作历史 - 完整记录每次协作,支持搜索和回顾
🚀 快速开始
安装
npm install -g claude-team或直接使用 npx(无需安装):
npx claude-team📖 Claude Code 详细配置教程
步骤 1:找到配置文件
打开配置文件 ~/.claude/config.json:
# macOS/Linux
open ~/.claude/config.json
# 或手动创建
mkdir -p ~/.claude && touch ~/.claude/config.json步骤 2:添加 MCP 配置
编辑 config.json,添加以下内容:
基础配置(双模型)
{
"mcpServers": {
"claude-team": {
"command": "npx",
"args": ["-y", "claude-team"],
"env": {
"CLAUDE_TEAM_MAIN_KEY": "sk-your-api-key",
"CLAUDE_TEAM_MAIN_URL": "https://api.openai.com/v1",
"CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
"CLAUDE_TEAM_MAIN_PROVIDER": "openai",
"CLAUDE_TEAM_MODEL1_NAME": "gpt-3.5-turbo"
}
}
}
}推荐配置(三模型协作)
{
"mcpServers": {
"claude-team": {
"command": "npx",
"args": ["-y", "claude-team"],
"env": {
"CLAUDE_TEAM_MAIN_KEY": "sk-your-main-key",
"CLAUDE_TEAM_MAIN_URL": "https://api.openai.com/v1",
"CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
"CLAUDE_TEAM_MAIN_PROVIDER": "openai",
"CLAUDE_TEAM_MODEL1_KEY": "sk-your-model1-key",
"CLAUDE_TEAM_MODEL1_URL": "https://api.anthropic.com/v1",
"CLAUDE_TEAM_MODEL1_NAME": "claude-3-sonnet",
"CLAUDE_TEAM_MODEL1_PROVIDER": "anthropic",
"CLAUDE_TEAM_MODEL2_KEY": "sk-your-model2-key",
"CLAUDE_TEAM_MODEL2_URL": "https://generativelanguage.googleapis.com/v1",
"CLAUDE_TEAM_MODEL2_NAME": "gemini-pro",
"CLAUDE_TEAM_MODEL2_PROVIDER": "gemini"
}
}
}
}中转 API 配置(同一服务多模型)
{
"mcpServers": {
"claude-team": {
"command": "npx",
"args": ["-y", "claude-team"],
"env": {
"CLAUDE_TEAM_MAIN_KEY": "your-proxy-key",
"CLAUDE_TEAM_MAIN_URL": "https://your-proxy.com/v1",
"CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
"CLAUDE_TEAM_MAIN_PROVIDER": "openai",
"CLAUDE_TEAM_MODEL1_NAME": "gpt-3.5-turbo",
"CLAUDE_TEAM_MODEL2_NAME": "claude-3-haiku",
"CLAUDE_TEAM_MODEL2_PROVIDER": "anthropic"
}
}
}
}💡 PROVIDER 可选值:
openai|anthropic|gemini
💡 如果 MODEL1/2/3 没有单独配置,会自动继承 MAIN 的配置
步骤 3:重启 Claude Code
配置完成后,重启 Claude Code 使配置生效。
步骤 4:开始使用
在 Claude Code 中直接对话:
> 帮我用团队协作完成一个用户登录功能> 让团队帮我优化这段代码的性能🔧 Windsurf / Cursor 配置
配置文件位置:
- Windsurf:
~/.codeium/windsurf/mcp_config.json - Cursor:
~/.cursor/mcp.json
配置格式与 Claude Code 相同。
⚙️ 配置说明
| 环境变量 | 必需 | 说明 |
|---------|------|------|
| CLAUDE_TEAM_MAIN_KEY | ✅ | 主模型 API Key |
| CLAUDE_TEAM_MAIN_URL | ❌ | 主模型 API 地址 |
| CLAUDE_TEAM_MAIN_MODEL | ❌ | 主模型 ID(默认 gpt-4o) |
| CLAUDE_TEAM_MODEL{N}_KEY | ❌ | 模型N API Key(默认用 MAIN 的) |
| CLAUDE_TEAM_MODEL{N}_URL | ❌ | 模型N API 地址(默认用 MAIN 的) |
| CLAUDE_TEAM_MODEL{N}_NAME | ❌ | 模型N ID |
| CLAUDE_TEAM_CUSTOM_EXPERTS | ❌ | 自定义专家配置(JSON 格式) |
N = 1, 2, 3... 最多支持 10 个工作模型
🎯 自定义专家
除了内置的 frontend、backend、qa 专家,你可以定义自己的专家:
{
"mcpServers": {
"claude-team": {
"command": "npx",
"args": ["-y", "claude-team"],
"env": {
"CLAUDE_TEAM_MAIN_KEY": "sk-your-key",
"CLAUDE_TEAM_CUSTOM_EXPERTS": "{\"rust\":{\"name\":\"Rust专家\",\"prompt\":\"你是Rust专家,精通Rust语言、内存安全、并发编程、cargo生态。\",\"tier\":\"powerful\"},\"k8s\":{\"name\":\"K8s专家\",\"prompt\":\"你是Kubernetes专家,精通容器编排、Helm、服务网格。\",\"tier\":\"balanced\"}}"
}
}
}
}配置后,ask_expert 和 code_review 工具会自动支持你定义的专家类型。
专家配置字段:
| 字段 | 必需 | 说明 |
|------|------|------|
| name | ✅ | 专家显示名称 |
| prompt | ✅ | 专家角色描述(System Prompt) |
| tier | ❌ | 模型级别:fast/balanced/powerful(默认 balanced) |
| skills | ❌ | 技能标签数组 |
模型角色
| 模型 | 用途 | |------|------| | MAIN | 主模型:分析任务、分配工作、也参与执行 | | MODEL1/2/3... | 工作模型:各自执行擅长的任务 |
🎬 工作原理
用户: "优化这个 SQL 查询的性能"
Tech Lead 分析 →
├── 创建: SQL 优化专家 (powerful)
├── 创建: 索引分析专家 (balanced)
└── 工作流: sequential用户: "写一个带暗黑模式的设置页面"
Tech Lead 分析 →
├── 创建: UI 组件专家 (balanced)
├── 创建: 主题系统专家 (fast)
├── 创建: 状态管理专家 (balanced)
└── 工作流: parallel → review🛠️ MCP 工具
| 工具 | 描述 |
|------|------|
| team_work | 🚀 团队协作完成任务(自动创建专家) |
| ask_expert | 💬 咨询专家(支持自定义专家) |
| code_review | 🔍 代码审查 |
| fix_bug | 🐛 Bug 修复 |
📊 可观测性工具
| 工具 | 描述 |
|------|------|
| team_dashboard | 🎛️ 查看团队状态:可用专家、模型配置、运行统计 |
| cost_estimate | 💰 预估任务成本(Token 用量、费用、耗时) |
| explain_plan | 🧠 预览 Tech Lead 的任务分配方案(不实际执行) |
| usage_stats | 📈 查看各模型使用统计 |
🔌 集成工具
| 工具 | 描述 |
|------|------|
| read_project_files | 📄 读取项目文件,让专家了解代码上下文 |
| analyze_project_structure | 🏗️ 分析项目结构,识别技术栈 |
| generate_commit_message | 📝 根据 diff 生成 Git commit message |
🔗 工作流工具
| 工具 | 描述 |
|------|------|
| list_workflows | 📋 列出所有预定义工作流模板 |
| run_workflow | ▶️ 使用指定工作流执行任务 |
| suggest_workflow | 💡 根据任务自动推荐工作流 |
预定义工作流:
| 工作流 | 用途 | 步骤 |
|--------|------|------|
| code-generation | 从需求生成代码 | 架构设计 → 代码实现 → 测试 → 审查 |
| bug-fix | 诊断和修复 Bug | 问题诊断 → 修复实现 → 验证 |
| refactoring | 代码重构 | 代码分析 → 重构计划 → 执行 → 审查 |
| code-review | 多维度代码审查 | 安全/质量/性能并行审查 |
| documentation | 生成技术文档 | 代码分析 → 文档生成 |
📜 历史记录
| 工具 | 描述 |
|------|------|
| history_list | 📋 查看协作历史 |
| history_get | 📄 获取历史详情 |
| history_search | 🔎 搜索历史记录 |
| history_context | 📚 获取最近上下文 |
⚙️ 高级配置 (可选)
多模型配置
如果你有多个 API Key,系统会自动优化分配:
# 设置多个 Key,获得最佳体验
export GEMINI_API_KEY="xxx" # → fast 任务
export OPENAI_API_KEY="sk-xxx" # → balanced 任务
export ANTHROPIC_API_KEY="xxx" # → powerful 任务自定义配置文件
需要更精细的控制?创建高级配置:
claude-team init --advanced这会在 ~/.claude-team/config.yaml 创建配置文件,你可以自定义:
- 模型选择和参数
- 专家角色定义
- 协作流程设置
模型能力级别
| 级别 | 用途 | 示例场景 |
|------|------|---------|
| fast | 简单、快速任务 | 格式化、简单查询、文档生成 |
| balanced | 常规开发任务 | 组件开发、API 实现、单元测试 |
| powerful | 复杂推理任务 | 架构设计、性能优化、安全审计 |
📦 更新日志
v0.4.0
- 🎯 自定义专家 - 通过环境变量定义专家(Rust专家、K8s专家等)
- 🔗 工作流模板 - 5 个预定义工作流(代码生成、Bug修复、重构、审查、文档)
- 📊 可观测性 - team_dashboard / cost_estimate / explain_plan 工具
- 🔌 项目集成 - read_project_files / analyze_project_structure / generate_commit_message
- 💡 智能推荐 - suggest_workflow 根据任务自动推荐工作流
- 🧪 测试覆盖 - 155 个测试用例全覆盖
v0.3.0
- 🔄 任务中断/恢复 - 长任务中断后可从历史恢复继续执行
- 💬 专家多轮对话 - 支持与特定专家进行多轮对话
- 📊 Token 计数 - 统计 token 使用量和估算 API 成本
- 📋 专家模板 - 6 个内置模板 + 自定义模板管理
- 🔔 Webhook 通知 - 任务完成后发送通知
- ⚡ 指数退避 - 智能重试和 429 速率限制处理
- 🔧 配置热重载 - 支持不重启更新配置
- ✅ validate 命令 -
claude-team validate检查配置 - 🧪 单元测试 - 86 个测试用例全覆盖
v0.2.2
- 🌊 流式输出 - 所有适配器支持流式输出(OpenAI/Claude/Gemini)
v0.2.1
- 📊 使用统计 - 新增
usage_stats工具,查看各模型调用次数、成功率、平均耗时
v0.2.0
- 🎯 模型策略 - 支持自定义任务分配规则(前端任务用 A 模型等)
- 💾 结果缓存 - 相似任务结果缓存,减少重复 API 调用
- 🔄 自动切换 - 模型调用失败时自动切换备用模型
- 📊 任务类型自动检测(frontend/backend/database/api/testing 等)
v0.1.3
- 🔄 显示每个专家执行任务的实时进度
- 🤖 显示每个专家使用的具体模型名称
- ⏱️ 显示任务总耗时
v0.1.2
- 📊 添加执行过程进度反馈
v0.1.1
- 📖 添加详细的 Claude Code 配置教程
- 📝 更新 README 文档
v0.1.0
- 🎉 首次发布
- 🤖 多模型协作支持
- 🌐 中转 API 支持
🤝 Contributing
欢迎提交 Issue 和 Pull Request!
📄 License
MIT
