npm package discovery and stats viewer.

Discover Tips

  • General search

    [free text search, go nuts!]

  • Package details

    pkg:[package-name]

  • User packages

    @[username]

Sponsor

Optimize Toolset

I’ve always been into building performant and accessible sites, but lately I’ve been taking it extremely seriously. So much so that I’ve been building a tool to help me optimize and monitor the sites that I build to make sure that I’m making an attempt to offer the best experience to those who visit them. If you’re into performant, accessible and SEO friendly sites, you might like it too! You can check it out at Optimize Toolset.

About

Hi, 👋, I’m Ryan Hefner  and I built this site for me, and you! The goal of this site was to provide an easy way for me to check the stats on my npm packages, both for prioritizing issues and updates, and to give me a little kick in the pants to keep up on stuff.

As I was building it, I realized that I was actually using the tool to build the tool, and figured I might as well put this out there and hopefully others will find it to be a fast and useful way to search and browse npm packages as I have.

If you’re interested in other things I’m working on, follow me on Twitter or check out the open source projects I’ve been publishing on GitHub.

I am also working on a Twitter bot for this site to tweet the most popular, newest, random packages from npm. Please follow that account now and it will start sending out packages soon–ish.

Open Software & Tools

This site wouldn’t be possible without the immense generosity and tireless efforts from the people who make contributions to the world and share their work via open source initiatives. Thank you 🙏

© 2026 – Pkg Stats / Ryan Hefner

iv-ollama-code-remote

v0.1.1

Published

Un assistant IA en ligne de commande connecté à un serveur Ollama distant

Downloads

6

Readme

Ollama Code Node

Un assistant IA en ligne de commande utilisant Ollama pour aider au développement, similaire à Claude Code.

Fonctionnalités

  • 🤖 Utilise le modèle qwen2.5-coder:14b pour une assistance au codage précise
  • 💻 Interface TUI (Text User Interface) riche et conviviale
  • 📁 Analyse le contexte du projet pour des réponses plus pertinentes
  • ⚙️ Intégration complète avec Git pour gérer vos dépôts directement depuis l'interface
  • ✨ Mode interactif avec conservation du contexte entre les messages
  • 🔄 Intégration transparente dans votre flux de travail de développement

Prérequis

  • Système d'exploitation : macOS, Ubuntu 20.04+/Debian 10+, ou Windows
  • Matériel : 4 Go RAM minimum (8 Go+ recommandé pour les grands modèles)
  • Logiciels :
    • Node.js 18+
    • Ollama installé et fonctionnel
    • git 2.23+ (optionnel)
    • ripgrep (rg) pour une recherche de fichiers améliorée (optionnel)

Installation

Installation d'Ollama

Suivez d'abord les instructions sur ollama.ai pour installer Ollama sur votre système.

Ensuite, téléchargez un modèle adapté au développement :

ollama pull codellama
# ou un autre modèle d'IA

Installation d'Ollama Code

# Installation globale depuis NPM (à venir)
npm install -g ollama-code-node

# Ou depuis le dépôt Git
git clone https://votre-repo/ollama-code-node.git
cd ollama-code-node
npm install
npm link

Utilisation

Commande de base

ollama-code "Écris une fonction qui trie une liste de dictionnaires par une clé spécifique"

Mode interactif (comme Claude Code)

ollama-code --interactive
# ou
ollama-code -i

En mode interactif, vous pouvez avoir une conversation continue avec le modèle, qui conserve le contexte entre les messages.

Commandes spéciales en mode interactif

  • /help - Affiche la liste des commandes disponibles
  • /exit ou /quit - Quitte le mode interactif
  • /clear - Efface l'historique de conversation et l'écran
  • /init - Réinitialise la conversation mais conserve le contexte du projet
  • /context - Affiche le contexte du projet actuel
  • /refresh - Actualise le contexte du projet

Commandes Git en mode interactif

  • /git status - Affiche l'état du dépôt
  • /git add [chemin] - Ajoute des fichiers à l'index
  • /git commit -m "message" - Crée un commit
  • /git pull - Récupère les modifications depuis le dépôt distant
  • /git push - Envoie les modifications vers le dépôt distant
  • /git log - Affiche l'historique des commits
  • /git branch - Liste toutes les branches
  • /git checkout [branche] - Bascule vers une branche

Raccourcis clavier

  • Ctrl+G - Affiche le menu Git
  • Ctrl+L - Efface l'écran
  • Ctrl+R - Actualise le contexte du projet
  • Ctrl+C - Quitte l'application

Avec analyse du contexte du projet

ollama-code --context "Comment puis-je améliorer cette partie du code?"
# ou
ollama-code -c "Comment puis-je améliorer cette partie du code?"

Utiliser un modèle Ollama spécifique

ollama-code --model codellama "Explique-moi comment implémenter un tri fusion"
# ou
ollama-code -m codellama "Explique-moi comment implémenter un tri fusion"

Exécution automatique du code

ollama-code --execute "Crée un script qui liste tous les fichiers du répertoire courant"
# ou
ollama-code -e "Crée un script qui liste tous les fichiers du répertoire courant"

Configuration

Ollama Code cherche un fichier de configuration à l'emplacement suivant :

~/.config/ollama-code/config.json

Exemple de configuration :

{
  "defaultModel": "codellama",
  "ollamaHost": "http://192.168.1.16:11434",
  "maxTokens": 2048,
  "temperature": 0.7,
  "ignoreDirs": [".git", "node_modules", "venv"],
  "ignorePatterns": ["*.pyc", "*.pyo", "*.mo"]
}

Utilisation sur un serveur Ubuntu

Pour utiliser Ollama Code sur un serveur Ubuntu, assurez-vous d'abord que Node.js 18+ et Ollama sont installés :

# Installer Node.js
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -
sudo apt-get install -y nodejs

# Installer Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# Télécharger un modèle
ollama pull codellama

# Installer Ollama Code
npm install -g ollama-code-node
# ou cloner depuis le dépôt comme indiqué ci-dessus

Développement

Pour contribuer au développement :

# Cloner le dépôt
git clone https://votre-repo/ollama-code-node.git
cd ollama-code-node

# Installer les dépendances
npm install

# Créer un lien symbolique pour tester localement
npm link

# Tester avec
ollama-code --help

License

MIT