camo-cli
v2.0.1
Published
🦎 Elite autonomous AI engineering agent with loop detection, persistent memory, and intelligent tool execution
Downloads
83
Maintainers
Readme
🦎 CAMO CLI
Ein intelligenter Terminal-AI-Assistent mit Multi-Provider-Support und professionellem TUI.
Features
✨ Multi-Provider Support: Anthropic, OpenAI, Google, Groq + Custom
🎨 Professionelles TUI: Claude Code-Style Interface
đź”§ Tool Integration: File Operations, Code Search, Shell Commands
📊 Git-Style Diffs: Rot/Grün Code-Änderungen
đź’ľ Persistente Config: Sichere API-Key Verwaltung
🌊 Streaming Responses: Echtzeit-Antworten
Installation
Lokal testen
# Dependencies installieren
npm install
# Projekt builden
npm run build
# CLI testen
node dist/index.jsGlobal installieren
# Global verlinken (fĂĽr Entwicklung)
npm link
# Jetzt kannst du ĂĽberall `camo` verwenden
camoVerwendung
1. Setup: API-Key konfigurieren
Beim ersten Start wirst du nach einem Provider und API-Key gefragt:
camoOder direkt via Befehl:
# Im interaktiven Modus
/key anthropic sk-ant-...
/key openai sk-...
/key google AIza...
/key groq gsk_...2. Modell auswählen
# Alle verfĂĽgbaren Modelle anzeigen
/model list
# Spezifisches Modell wählen
/model anthropic/claude-3-5-sonnet-latest
/model openai/gpt-4o
/model google/gemini-2.0-flash-exp3. Mit CAMO chatten
Einfach deine Frage eingeben - CAMO antwortet in Echtzeit! 🦎
VerfĂĽgbare Befehle
Provider & Modell Management
/key <provider> <api-key>- API-Key setzen/model list- Alle Modelle anzeigen/model <provider>/<model-id>- Modell wählen/provider list- Alle Provider anzeigen/provider add <name> <url> <key>- Custom Provider hinzufügen/provider remove <name>- Provider entfernen
System
/help- Hilfe anzeigen/clear- Chat-Historie löschen/exit- CAMO beenden
MCP (Model Context Protocol)
/mcp list- MCP-Server anzeigen/mcp add <config>- MCP-Server hinzufĂĽgen
UnterstĂĽtzte Provider & Modelle
Anthropic
- Claude 3.5 Sonnet (200k context)
- Claude 3.5 Haiku (200k context)
- Claude 3.7 Sonnet (200k context)
OpenAI
- GPT-4o (128k context)
- GPT-4o Mini (128k context)
- O1 (200k context)
- O1 Mini (128k context)
- Gemini 2.0 Flash (1M context)
- Gemini 2.5 Pro (2M context)
Groq
- Llama 3.3 70B (128k context)
- Mixtral 8x7B (32k context)
Custom
- Jeder OpenAI-kompatible Endpoint
Beispiele
# Einfache Frage
Erkläre mir TypeScript in einem Satz
# Code-Hilfe
Schreibe eine TypeScript Funktion die zwei Zahlen addiert
# Datei-Operationen
Erstelle eine neue Datei utils.ts mit Helper-Funktionen
# Code-Suche
Suche nach allen TODO-Kommentaren im ProjektProjekt-Struktur
camo-cli/
├── src/
│ └── index.ts # CLI mit AI-Integration
├── dist/ # Kompilierte JavaScript-Dateien
├── package.json # NPM Konfiguration mit bin-Feld
├── tsconfig.json # TypeScript Konfiguration
└── README.md # Diese DateiTechnologien
- TypeScript: Typsicherer Code
- Node.js: Runtime
- AI SDK: Vercel AI SDK fĂĽr Streaming
- Anthropic: Claude 3.5 Sonnet
- OpenAI: GPT-4o
- Google: Gemini 2.0 Flash
- commander: CLI-Framework
- conf: Persistente Konfiguration
- chalk: Farbige Terminal-Ausgabe
Entwicklung
# Mit ts-node direkt ausfĂĽhren (ohne Build)
npm run dev
# Projekt neu builden
npm run buildFehlerbehandlung
CAMO erkennt automatisch:
- ❌ Fehlende API-Keys
- ❌ Ungültige API-Keys
- ❌ Rate Limits
- ❌ Netzwerkfehler
Und gibt hilfreiche Fehlermeldungen aus.
Lizenz
ISC
