n8n-nodes-openrouter-cache
v0.3.0
Published
n8n node for OpenRouter Chat Model with Prompt Caching support
Maintainers
Readme
n8n-nodes-openrouter-cache
n8n community node для OpenRouter Chat Model с поддержкой Prompt Caching.
Возможности
- Полная совместимость с AI Agent и другими LangChain узлами
- Поддержка
cache_controlдля Anthropic Claude и Google Gemini - Настраиваемый TTL кэша (5 минут или 1 час для Anthropic)
- Кэширование системных промптов и первого пользовательского сообщения
- Автоматическое определение поддержки кэширования по модели
Как работает кэширование
| Провайдер | Кэширование |
|-----------|-------------|
| OpenAI | Автоматическое (минимум 1024 токена) |
| Anthropic Claude | Требует cache_control - этот узел добавляет его автоматически |
| Google Gemini | Требует cache_control - этот узел добавляет его автоматически |
| DeepSeek | Автоматическое |
| Groq | Автоматическое |
| Grok | Автоматическое |
Установка
Через Docker (рекомендуется)
- Соберите пакет локально:
cd n8n-nodes-openrouter-cache
pnpm install
pnpm build- Создайте
Dockerfile:
FROM n8nio/n8n:latest
USER root
# Копируем собранный пакет
COPY ./n8n-nodes-openrouter-cache /home/node/.n8n/custom/n8n-nodes-openrouter-cache
# Устанавливаем зависимости
WORKDIR /home/node/.n8n/custom/n8n-nodes-openrouter-cache
RUN npm install --production
USER node
WORKDIR /home/node- Обновите
docker-compose.yml:
version: '3.8'
services:
n8n:
build: .
# или используйте image: n8nio/n8n:latest и volumes
ports:
- "5678:5678"
environment:
- N8N_CUSTOM_EXTENSIONS=/home/node/.n8n/custom
volumes:
- n8n_data:/home/node/.n8n
# Для разработки можно монтировать напрямую:
# - ./n8n-nodes-openrouter-cache:/home/node/.n8n/custom/n8n-nodes-openrouter-cache
volumes:
n8n_data:- Запустите:
docker-compose up --buildАльтернатива: монтирование volume
Если не хотите пересобирать образ:
services:
n8n:
image: n8nio/n8n:latest
volumes:
- n8n_data:/home/node/.n8n
- ./n8n-nodes-openrouter-cache/dist:/home/node/.n8n/custom/n8n-nodes-openrouter-cache/dist
- ./n8n-nodes-openrouter-cache/package.json:/home/node/.n8n/custom/n8n-nodes-openrouter-cache/package.json
environment:
- N8N_CUSTOM_EXTENSIONS=/home/node/.n8n/customИспользование
Добавьте узел OpenRouter Chat Model (with Cache) в workflow
Создайте credentials с вашим OpenRouter API ключом
Выберите модель
Настройте кэширование:
- Enable Prompt Caching: включить для Anthropic/Gemini моделей
- Cache TTL: 5 минут (по умолчанию) или 1 час
- Cache System Prompt: кэшировать системный промпт
- Cache First User Message: кэшировать первое сообщение пользователя (для больших документов)
Подключите к AI Agent или другому LangChain узлу
Экономия на токенах
При использовании кэширования:
| Провайдер | Запись кэша | Чтение кэша | |-----------|-------------|-------------| | Anthropic | 1.25x цены | 0.1x цены (90% экономия!) | | Google Gemini | бесплатно + хранение | 0.25x цены | | OpenAI | бесплатно | 0.5x цены | | DeepSeek | 1x цены | 0.1x цены |
Проверка работы кэша
Проверить экономию можно:
- На странице Activity в OpenRouter
- Через API
/api/v1/generation - В поле
cached_tokensв ответе API
Лицензия
MIT
