iv-ollama-code-remote
v0.1.1
Published
Un assistant IA en ligne de commande connecté à un serveur Ollama distant
Downloads
6
Maintainers
Readme
Ollama Code Node
Un assistant IA en ligne de commande utilisant Ollama pour aider au développement, similaire à Claude Code.
Fonctionnalités
- 🤖 Utilise le modèle qwen2.5-coder:14b pour une assistance au codage précise
- 💻 Interface TUI (Text User Interface) riche et conviviale
- 📁 Analyse le contexte du projet pour des réponses plus pertinentes
- ⚙️ Intégration complète avec Git pour gérer vos dépôts directement depuis l'interface
- ✨ Mode interactif avec conservation du contexte entre les messages
- 🔄 Intégration transparente dans votre flux de travail de développement
Prérequis
- Système d'exploitation : macOS, Ubuntu 20.04+/Debian 10+, ou Windows
- Matériel : 4 Go RAM minimum (8 Go+ recommandé pour les grands modèles)
- Logiciels :
- Node.js 18+
- Ollama installé et fonctionnel
- git 2.23+ (optionnel)
- ripgrep (rg) pour une recherche de fichiers améliorée (optionnel)
Installation
Installation d'Ollama
Suivez d'abord les instructions sur ollama.ai pour installer Ollama sur votre système.
Ensuite, téléchargez un modèle adapté au développement :
ollama pull codellama
# ou un autre modèle d'IAInstallation d'Ollama Code
# Installation globale depuis NPM (à venir)
npm install -g ollama-code-node
# Ou depuis le dépôt Git
git clone https://votre-repo/ollama-code-node.git
cd ollama-code-node
npm install
npm linkUtilisation
Commande de base
ollama-code "Écris une fonction qui trie une liste de dictionnaires par une clé spécifique"Mode interactif (comme Claude Code)
ollama-code --interactive
# ou
ollama-code -iEn mode interactif, vous pouvez avoir une conversation continue avec le modèle, qui conserve le contexte entre les messages.
Commandes spéciales en mode interactif
/help- Affiche la liste des commandes disponibles/exitou/quit- Quitte le mode interactif/clear- Efface l'historique de conversation et l'écran/init- Réinitialise la conversation mais conserve le contexte du projet/context- Affiche le contexte du projet actuel/refresh- Actualise le contexte du projet
Commandes Git en mode interactif
/git status- Affiche l'état du dépôt/git add [chemin]- Ajoute des fichiers à l'index/git commit -m "message"- Crée un commit/git pull- Récupère les modifications depuis le dépôt distant/git push- Envoie les modifications vers le dépôt distant/git log- Affiche l'historique des commits/git branch- Liste toutes les branches/git checkout [branche]- Bascule vers une branche
Raccourcis clavier
Ctrl+G- Affiche le menu GitCtrl+L- Efface l'écranCtrl+R- Actualise le contexte du projetCtrl+C- Quitte l'application
Avec analyse du contexte du projet
ollama-code --context "Comment puis-je améliorer cette partie du code?"
# ou
ollama-code -c "Comment puis-je améliorer cette partie du code?"Utiliser un modèle Ollama spécifique
ollama-code --model codellama "Explique-moi comment implémenter un tri fusion"
# ou
ollama-code -m codellama "Explique-moi comment implémenter un tri fusion"Exécution automatique du code
ollama-code --execute "Crée un script qui liste tous les fichiers du répertoire courant"
# ou
ollama-code -e "Crée un script qui liste tous les fichiers du répertoire courant"Configuration
Ollama Code cherche un fichier de configuration à l'emplacement suivant :
~/.config/ollama-code/config.jsonExemple de configuration :
{
"defaultModel": "codellama",
"ollamaHost": "http://192.168.1.16:11434",
"maxTokens": 2048,
"temperature": 0.7,
"ignoreDirs": [".git", "node_modules", "venv"],
"ignorePatterns": ["*.pyc", "*.pyo", "*.mo"]
}Utilisation sur un serveur Ubuntu
Pour utiliser Ollama Code sur un serveur Ubuntu, assurez-vous d'abord que Node.js 18+ et Ollama sont installés :
# Installer Node.js
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -
sudo apt-get install -y nodejs
# Installer Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# Télécharger un modèle
ollama pull codellama
# Installer Ollama Code
npm install -g ollama-code-node
# ou cloner depuis le dépôt comme indiqué ci-dessusDéveloppement
Pour contribuer au développement :
# Cloner le dépôt
git clone https://votre-repo/ollama-code-node.git
cd ollama-code-node
# Installer les dépendances
npm install
# Créer un lien symbolique pour tester localement
npm link
# Tester avec
ollama-code --helpLicense
MIT
