npm package discovery and stats viewer.

Discover Tips

  • General search

    [free text search, go nuts!]

  • Package details

    pkg:[package-name]

  • User packages

    @[username]

Sponsor

Optimize Toolset

I’ve always been into building performant and accessible sites, but lately I’ve been taking it extremely seriously. So much so that I’ve been building a tool to help me optimize and monitor the sites that I build to make sure that I’m making an attempt to offer the best experience to those who visit them. If you’re into performant, accessible and SEO friendly sites, you might like it too! You can check it out at Optimize Toolset.

About

Hi, 👋, I’m Ryan Hefner  and I built this site for me, and you! The goal of this site was to provide an easy way for me to check the stats on my npm packages, both for prioritizing issues and updates, and to give me a little kick in the pants to keep up on stuff.

As I was building it, I realized that I was actually using the tool to build the tool, and figured I might as well put this out there and hopefully others will find it to be a fast and useful way to search and browse npm packages as I have.

If you’re interested in other things I’m working on, follow me on Twitter or check out the open source projects I’ve been publishing on GitHub.

I am also working on a Twitter bot for this site to tweet the most popular, newest, random packages from npm. Please follow that account now and it will start sending out packages soon–ish.

Open Software & Tools

This site wouldn’t be possible without the immense generosity and tireless efforts from the people who make contributions to the world and share their work via open source initiatives. Thank you 🙏

© 2026 – Pkg Stats / Ryan Hefner

ollama-code-qwen

v0.5.2

Published

Un assistant IA en ligne de commande utilisant Ollama et le modèle qwen2.5-coder pour aider au développement, avec des capacités MCP améliorées et détection d'intentions en français et anglais

Readme

Ollama Code Node

Un assistant IA en ligne de commande utilisant Ollama pour aider au développement, similaire à Claude Code, avec des capacités MCP (Master Control Program) pour créer et modifier des fichiers automatiquement.

Utilisation sur des connexions distantes

Si vous rencontrez des problèmes de lenteur lors de l'utilisation d'Ollama Code sur un terminal distant (SSH, Cursor, etc.), vous pouvez utiliser l'une des versions allégées :

# Version légère - Interface simplifiée sans TUI
ollama-code-light

# Version interactive simplifiée - Pour les connexions très lentes
ollama-code-simple

Ces versions offrent les mêmes fonctionnalités essentielles mais avec une interface beaucoup plus légère qui fonctionne mieux sur les connexions à haute latence.

Fonctionnalités

  • 🤖 Utilise le modèle qwen2.5-coder:14b pour une assistance au codage précise et intelligente
  • 💻 Interface TUI (Text User Interface) riche et conviviale
  • 📁 Analyse avancée du contexte du projet pour des réponses plus pertinentes
  • 📄 MCP : Création et modification automatique de fichiers à partir des conversations
  • 🔎 Détection intelligente des intentions de créer/modifier des fichiers en français et anglais
  • ⚙️ Intégration complète avec Git pour gérer vos dépôts directement depuis l'interface
  • ✨ Mode interactif avec conservation du contexte entre les messages
  • 🚀 Mode focus par fichier ou dossier pour une assistance contextualisée
  • 🔍 Détection automatique du type de projet et des technologies utilisées
  • 🧠 Réponses en streaming pour une expérience plus fluide
  • 🛠️ Exécution de code dans plusieurs langages de programmation
  • 🔄 Intégration transparente dans votre flux de travail de développement

Prérequis

  • Système d'exploitation : macOS, Ubuntu 20.04+/Debian 10+, ou Windows
  • Matériel : 8 Go RAM minimum (16 Go+ recommandé pour les grands modèles)
  • Logiciels :
    • Node.js 18+
    • Ollama installé et fonctionnel
    • git 2.23+ (optionnel)
    • ripgrep (rg) pour une recherche de fichiers améliorée (optionnel)

Installation

Installation d'Ollama

Suivez d'abord les instructions sur ollama.ai pour installer Ollama sur votre système.

Ensuite, téléchargez le modèle recommandé:

ollama pull qwen2.5-coder:14b
# ou un autre modèle d'IA adapté au développement

Installation d'Ollama Code

# Installation globale depuis NPM
npm install -g ollama-code-node

# Ou depuis le dépôt Git
git clone https://github.com/votre-repo/ollama-code-node.git
cd ollama-code-node
npm install
npm link

Installation rapide sur Ubuntu

Vous pouvez utiliser notre script d'installation qui configure tout automatiquement :

curl -fsSL https://raw.githubusercontent.com/votre-repo/ollama-code-node/main/install_ubuntu.sh | bash

Ou si vous avez cloné le dépôt :

chmod +x install_ubuntu.sh
./install_ubuntu.sh

Utilisation

Commande de base

ollama-code "Écris une fonction qui trie une liste de dictionnaires par une clé spécifique"

Mode interactif (comme Claude Code)

ollama-code --interactive
# ou
ollama-code -i

En mode interactif, vous pouvez avoir une conversation continue avec le modèle, qui conserve le contexte entre les messages. Vous pouvez créer ou modifier des fichiers simplement en le demandant - par exemple, "crée un fichier config.js avec le contenu suivant" ou "modifie le fichier app.js pour ajouter une nouvelle fonction".

Mode léger pour les terminaux distants

Si vous rencontrez des problèmes de performance sur un terminal distant ou SSH, utilisez le mode léger :

ollama-code -i -l

Ce mode utilise une interface plus simple sans widgets TUI complexes, ce qui améliore considérablement les performances sur les connexions distantes ou les terminaux avec latence.

Mode focus

Pour se concentrer sur un fichier ou un dossier spécifique:

# En mode interactif
ollama-code -i
# Puis: /focus chemin/vers/fichier

# Ou directement au démarrage
ollama-code -i -f chemin/vers/fichier

Le mode focus permet de concentrer le contexte sur un fichier ou un dossier spécifique, ce qui est très utile pour travailler sur des parties précises d'un projet.

Commandes spéciales en mode interactif

Commandes de base

  • /help - Affiche la liste des commandes disponibles
  • /exit ou /quit - Quitte le mode interactif
  • /clear - Efface l'historique de conversation et l'écran
  • /init - Réinitialise la conversation mais conserve le contexte du projet
  • /context - Affiche le contexte du projet actuel
  • /refresh - Actualise le contexte du projet
  • /project-info - Affiche les informations détectées sur le projet

Commandes de focus

  • /focus [chemin] - Active le mode focus sur un fichier ou dossier
  • /unfocus - Désactive le mode focus

Commandes de fichiers

  • /cd [chemin] - Change le répertoire courant
  • /ls [chemin] - Liste le contenu d'un répertoire
  • /mkdir [chemin] - Crée un nouveau répertoire
  • /read [chemin] - Lit le contenu d'un fichier
  • /write [chemin] [texte] - Écrit du texte dans un fichier
  • /edit [chemin] [ancien_texte] [nouveau_texte] - Remplace du texte dans un fichier
  • /run [commande] - Exécute une commande système
  • /run-code [fichier] - Exécute le code d'un fichier

Commandes Git

  • /git status - Affiche l'état du dépôt
  • /git add [chemin] - Ajoute des fichiers à l'index
  • /git commit -m "message" - Crée un commit
  • /git pull - Récupère les modifications depuis le dépôt distant
  • /git push - Envoie les modifications vers le dépôt distant
  • /git log - Affiche l'historique des commits
  • /git branch - Liste toutes les branches
  • /git checkout [branche] - Bascule vers une branche
  • /suggest-commit - Suggère un message de commit basé sur les changements
  • /analyze-git - Analyse les changements récents dans le dépôt Git

Raccourcis clavier

  • Ctrl+G - Affiche le menu Git
  • Ctrl+L - Efface l'écran
  • Ctrl+R - Actualise le contexte du projet
  • Ctrl+C - Quitte l'application

Avec analyse du contexte du projet

ollama-code --context "Comment puis-je améliorer cette partie du code?"
# ou
ollama-code -c "Comment puis-je améliorer cette partie du code?"

Utiliser un modèle Ollama spécifique

ollama-code --model codellama "Explique-moi comment implémenter un tri fusion"
# ou
ollama-code -m codellama "Explique-moi comment implémenter un tri fusion"

Exécution automatique du code

ollama-code --execute "Crée un script qui liste tous les fichiers du répertoire courant"
# ou
ollama-code -e "Crée un script qui liste tous les fichiers du répertoire courant"

Options avancées

# Ajuster la température (0.0-1.0)
ollama-code -t 0.3 "Écris un code très précis et déterministe"

# Désactiver le streaming des réponses
ollama-code --no-stream "Génère une réponse complète"

# Spécifier un serveur Ollama différent
ollama-code --host http://mon-serveur-ollama:11434 "Demande"

# Afficher toutes les options
ollama-code --help

Configuration

Ollama Code cherche un fichier de configuration à l'emplacement suivant :

~/.config/ollama-code/config.json

Exemple de configuration :

{
  "defaultModel": "qwen2.5-coder:14b",
  "ollamaHost": "http://192.168.1.16:11434",
  "maxTokens": 4096,
  "temperature": 0.5,
  "enableStreaming": true,
  "enableCache": true,
  "cacheTTL": 3600000,
  "enableCodeExecution": true,
  "codeExecutionTimeout": 10000,
  "ignoreDirs": [".git", "node_modules", "venv"],
  "ignorePatterns": ["*.pyc", "*.pyo", "*.mo"]
}

Utilisation sur un serveur Ubuntu

Pour utiliser Ollama Code sur un serveur Ubuntu, assurez-vous d'abord que Node.js 18+ et Ollama sont installés :

# Installer Node.js
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -
sudo apt-get install -y nodejs

# Installer Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# Télécharger un modèle
ollama pull qwen2.5-coder:14b

# Installer Ollama Code
npm install -g ollama-code-node
# ou cloner depuis le dépôt comme indiqué ci-dessus

Développement

Pour contribuer au développement :

# Cloner le dépôt
git clone https://votre-repo/ollama-code-node.git
cd ollama-code-node

# Installer les dépendances
npm install

# Créer un lien symbolique pour tester localement
npm link

# Tester avec
ollama-code --help

Différences avec Claude Code

Ollama Code Node est inspiré par Claude Code mais fonctionne entièrement en local avec Ollama:

  • Avantages:

    • Fonctionne 100% en local (pas besoin de connexion internet)
    • Création et modification automatique de fichiers sans commandes spéciales
    • Détection intelligente des intentions en français et anglais
    • Gratuit et sans limite d'utilisation
    • Vous gardez le contrôle total de vos données
    • Personnalisable (modèles, prompts, configuration)
  • Limitations:

    • Capacités de raisonnement légèrement inférieures aux grands modèles propriétaires
    • Le streaming est un peu plus lent sur les machines modestes
    • La précision de détection d'intentions peut varier selon la formulation

License

MIT