ollama-code-qwen
v0.5.2
Published
Un assistant IA en ligne de commande utilisant Ollama et le modèle qwen2.5-coder pour aider au développement, avec des capacités MCP améliorées et détection d'intentions en français et anglais
Maintainers
Readme
Ollama Code Node
Un assistant IA en ligne de commande utilisant Ollama pour aider au développement, similaire à Claude Code, avec des capacités MCP (Master Control Program) pour créer et modifier des fichiers automatiquement.
Utilisation sur des connexions distantes
Si vous rencontrez des problèmes de lenteur lors de l'utilisation d'Ollama Code sur un terminal distant (SSH, Cursor, etc.), vous pouvez utiliser l'une des versions allégées :
# Version légère - Interface simplifiée sans TUI
ollama-code-light
# Version interactive simplifiée - Pour les connexions très lentes
ollama-code-simpleCes versions offrent les mêmes fonctionnalités essentielles mais avec une interface beaucoup plus légère qui fonctionne mieux sur les connexions à haute latence.
Fonctionnalités
- 🤖 Utilise le modèle
qwen2.5-coder:14bpour une assistance au codage précise et intelligente - 💻 Interface TUI (Text User Interface) riche et conviviale
- 📁 Analyse avancée du contexte du projet pour des réponses plus pertinentes
- 📄 MCP : Création et modification automatique de fichiers à partir des conversations
- 🔎 Détection intelligente des intentions de créer/modifier des fichiers en français et anglais
- ⚙️ Intégration complète avec Git pour gérer vos dépôts directement depuis l'interface
- ✨ Mode interactif avec conservation du contexte entre les messages
- 🚀 Mode focus par fichier ou dossier pour une assistance contextualisée
- 🔍 Détection automatique du type de projet et des technologies utilisées
- 🧠 Réponses en streaming pour une expérience plus fluide
- 🛠️ Exécution de code dans plusieurs langages de programmation
- 🔄 Intégration transparente dans votre flux de travail de développement
Prérequis
- Système d'exploitation : macOS, Ubuntu 20.04+/Debian 10+, ou Windows
- Matériel : 8 Go RAM minimum (16 Go+ recommandé pour les grands modèles)
- Logiciels :
- Node.js 18+
- Ollama installé et fonctionnel
- git 2.23+ (optionnel)
- ripgrep (rg) pour une recherche de fichiers améliorée (optionnel)
Installation
Installation d'Ollama
Suivez d'abord les instructions sur ollama.ai pour installer Ollama sur votre système.
Ensuite, téléchargez le modèle recommandé:
ollama pull qwen2.5-coder:14b
# ou un autre modèle d'IA adapté au développementInstallation d'Ollama Code
# Installation globale depuis NPM
npm install -g ollama-code-node
# Ou depuis le dépôt Git
git clone https://github.com/votre-repo/ollama-code-node.git
cd ollama-code-node
npm install
npm linkInstallation rapide sur Ubuntu
Vous pouvez utiliser notre script d'installation qui configure tout automatiquement :
curl -fsSL https://raw.githubusercontent.com/votre-repo/ollama-code-node/main/install_ubuntu.sh | bashOu si vous avez cloné le dépôt :
chmod +x install_ubuntu.sh
./install_ubuntu.shUtilisation
Commande de base
ollama-code "Écris une fonction qui trie une liste de dictionnaires par une clé spécifique"Mode interactif (comme Claude Code)
ollama-code --interactive
# ou
ollama-code -iEn mode interactif, vous pouvez avoir une conversation continue avec le modèle, qui conserve le contexte entre les messages. Vous pouvez créer ou modifier des fichiers simplement en le demandant - par exemple, "crée un fichier config.js avec le contenu suivant" ou "modifie le fichier app.js pour ajouter une nouvelle fonction".
Mode léger pour les terminaux distants
Si vous rencontrez des problèmes de performance sur un terminal distant ou SSH, utilisez le mode léger :
ollama-code -i -lCe mode utilise une interface plus simple sans widgets TUI complexes, ce qui améliore considérablement les performances sur les connexions distantes ou les terminaux avec latence.
Mode focus
Pour se concentrer sur un fichier ou un dossier spécifique:
# En mode interactif
ollama-code -i
# Puis: /focus chemin/vers/fichier
# Ou directement au démarrage
ollama-code -i -f chemin/vers/fichierLe mode focus permet de concentrer le contexte sur un fichier ou un dossier spécifique, ce qui est très utile pour travailler sur des parties précises d'un projet.
Commandes spéciales en mode interactif
Commandes de base
/help- Affiche la liste des commandes disponibles/exitou/quit- Quitte le mode interactif/clear- Efface l'historique de conversation et l'écran/init- Réinitialise la conversation mais conserve le contexte du projet/context- Affiche le contexte du projet actuel/refresh- Actualise le contexte du projet/project-info- Affiche les informations détectées sur le projet
Commandes de focus
/focus [chemin]- Active le mode focus sur un fichier ou dossier/unfocus- Désactive le mode focus
Commandes de fichiers
/cd [chemin]- Change le répertoire courant/ls [chemin]- Liste le contenu d'un répertoire/mkdir [chemin]- Crée un nouveau répertoire/read [chemin]- Lit le contenu d'un fichier/write [chemin] [texte]- Écrit du texte dans un fichier/edit [chemin] [ancien_texte] [nouveau_texte]- Remplace du texte dans un fichier/run [commande]- Exécute une commande système/run-code [fichier]- Exécute le code d'un fichier
Commandes Git
/git status- Affiche l'état du dépôt/git add [chemin]- Ajoute des fichiers à l'index/git commit -m "message"- Crée un commit/git pull- Récupère les modifications depuis le dépôt distant/git push- Envoie les modifications vers le dépôt distant/git log- Affiche l'historique des commits/git branch- Liste toutes les branches/git checkout [branche]- Bascule vers une branche/suggest-commit- Suggère un message de commit basé sur les changements/analyze-git- Analyse les changements récents dans le dépôt Git
Raccourcis clavier
Ctrl+G- Affiche le menu GitCtrl+L- Efface l'écranCtrl+R- Actualise le contexte du projetCtrl+C- Quitte l'application
Avec analyse du contexte du projet
ollama-code --context "Comment puis-je améliorer cette partie du code?"
# ou
ollama-code -c "Comment puis-je améliorer cette partie du code?"Utiliser un modèle Ollama spécifique
ollama-code --model codellama "Explique-moi comment implémenter un tri fusion"
# ou
ollama-code -m codellama "Explique-moi comment implémenter un tri fusion"Exécution automatique du code
ollama-code --execute "Crée un script qui liste tous les fichiers du répertoire courant"
# ou
ollama-code -e "Crée un script qui liste tous les fichiers du répertoire courant"Options avancées
# Ajuster la température (0.0-1.0)
ollama-code -t 0.3 "Écris un code très précis et déterministe"
# Désactiver le streaming des réponses
ollama-code --no-stream "Génère une réponse complète"
# Spécifier un serveur Ollama différent
ollama-code --host http://mon-serveur-ollama:11434 "Demande"
# Afficher toutes les options
ollama-code --helpConfiguration
Ollama Code cherche un fichier de configuration à l'emplacement suivant :
~/.config/ollama-code/config.jsonExemple de configuration :
{
"defaultModel": "qwen2.5-coder:14b",
"ollamaHost": "http://192.168.1.16:11434",
"maxTokens": 4096,
"temperature": 0.5,
"enableStreaming": true,
"enableCache": true,
"cacheTTL": 3600000,
"enableCodeExecution": true,
"codeExecutionTimeout": 10000,
"ignoreDirs": [".git", "node_modules", "venv"],
"ignorePatterns": ["*.pyc", "*.pyo", "*.mo"]
}Utilisation sur un serveur Ubuntu
Pour utiliser Ollama Code sur un serveur Ubuntu, assurez-vous d'abord que Node.js 18+ et Ollama sont installés :
# Installer Node.js
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -
sudo apt-get install -y nodejs
# Installer Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# Télécharger un modèle
ollama pull qwen2.5-coder:14b
# Installer Ollama Code
npm install -g ollama-code-node
# ou cloner depuis le dépôt comme indiqué ci-dessusDéveloppement
Pour contribuer au développement :
# Cloner le dépôt
git clone https://votre-repo/ollama-code-node.git
cd ollama-code-node
# Installer les dépendances
npm install
# Créer un lien symbolique pour tester localement
npm link
# Tester avec
ollama-code --helpDifférences avec Claude Code
Ollama Code Node est inspiré par Claude Code mais fonctionne entièrement en local avec Ollama:
Avantages:
- Fonctionne 100% en local (pas besoin de connexion internet)
- Création et modification automatique de fichiers sans commandes spéciales
- Détection intelligente des intentions en français et anglais
- Gratuit et sans limite d'utilisation
- Vous gardez le contrôle total de vos données
- Personnalisable (modèles, prompts, configuration)
Limitations:
- Capacités de raisonnement légèrement inférieures aux grands modèles propriétaires
- Le streaming est un peu plus lent sur les machines modestes
- La précision de détection d'intentions peut varier selon la formulation
License
MIT
