npm package discovery and stats viewer.

Discover Tips

  • General search

    [free text search, go nuts!]

  • Package details

    pkg:[package-name]

  • User packages

    @[username]

Sponsor

Optimize Toolset

I’ve always been into building performant and accessible sites, but lately I’ve been taking it extremely seriously. So much so that I’ve been building a tool to help me optimize and monitor the sites that I build to make sure that I’m making an attempt to offer the best experience to those who visit them. If you’re into performant, accessible and SEO friendly sites, you might like it too! You can check it out at Optimize Toolset.

About

Hi, 👋, I’m Ryan Hefner  and I built this site for me, and you! The goal of this site was to provide an easy way for me to check the stats on my npm packages, both for prioritizing issues and updates, and to give me a little kick in the pants to keep up on stuff.

As I was building it, I realized that I was actually using the tool to build the tool, and figured I might as well put this out there and hopefully others will find it to be a fast and useful way to search and browse npm packages as I have.

If you’re interested in other things I’m working on, follow me on Twitter or check out the open source projects I’ve been publishing on GitHub.

I am also working on a Twitter bot for this site to tweet the most popular, newest, random packages from npm. Please follow that account now and it will start sending out packages soon–ish.

Open Software & Tools

This site wouldn’t be possible without the immense generosity and tireless efforts from the people who make contributions to the world and share their work via open source initiatives. Thank you 🙏

© 2026 – Pkg Stats / Ryan Hefner

n8n-nodes-rvf-llm

v1.0.5

Published

RVF LLM nodes for n8n: Universal AI Gateway integration

Readme

n8n-nodes-rvf-llm

N8N License Version Status

Комплексный пакет кастомных узлов n8n, интегрирующий RVF LLM — универсальный шлюз к AI, предоставляющий доступ к множеству языковых моделей и провайдеров (OpenAI, Anthropic Claude, Google Gemini, локальные модели и многие другие) прямо в ваши workflows n8n.

🚀 Идеально подходит для: инженеров по автоматизации, AI-интеграторов и всех, кто создаёт интеллектуальные workflows без переключения между платформами.


Оглавление


Возможности

Единый AI-интерфейс: Доступ к 20+ AI моделям от 10+ провайдеров через единый стандартизированный интерфейс

🔄 Маршрутизация провайдеров: Автоматически направляйте запросы разным AI-провайдерам в зависимости от доступности

🤖 Совместимость с AI Agent: Полная поддержка n8n AI Agent с возможностью вызова инструментов

⚙️ Гибкий вывод: Генерируйте текст, изображения, аудио и видео из одного узла

🔐 Защищённые учётные данные: Аутентификация токеном Bearer с шифрованием

🎯 Умный выбор моделей: Динамическая загрузка провайдеров и моделей на основе вашего API-ключа

💾 Поддержка кеширования: Встроенное кеширование ответов для оптимальной производительности

📊 Ограничение частоты запросов: Настраиваемое ограничение запросов и управление timeout'ами

🌍 Многоязычная поддержка: Бесперебойная работа с prompts на любом языке


Что включено

Этот пакет содержит два готовых к production узла n8n:

| Узел | Назначение | Тип | |------|-----------|-----| | RVF LLM | Генерация текста, изображений, аудио и видео от нескольких AI-провайдеров | Action Node | | RVF LLM Chat Model | LangChain-совместимая chat-модель для workflows AI Agent | Model Node |

Плюс один тип учётных данных:

| Учётные данные | Описание | |---|---| | RVF LLM API | Аутентификация API с конфигурацией базового URL |


Быстрый старт

1. Добавьте ваш API-ключ

1. Откройте n8n Settings → Credentials
2. Нажмите "+ New"
3. Найдите "RVF LLM API"
4. Вставьте ваш API-ключ (формат: rvf_xxxxxxxxxxxxxxxx...)
5. Base URL по умолчанию: https://rvlautoai.ru/webhook
6. Сохраните

2. Добавьте узел в ваш workflow

1. Нажмите "+" в вашем workflow
2. Найдите "RVF LLM" или "RVF LLM Chat Model"
3. Перетащите на canvas
4. Выберите ваши учётные данные
5. Конфигурируйте узел (см. примеры ниже)

3. Запустите свой первый workflow

Начните с базового примера в разделе Примеры использования


Установка

Установка через GUI (Рекомендуется)

Для пользователей, предпочитающих графический интерфейс (без терминала):

  1. Откройте вашу n8n-инстанцию
  2. Перейдите в SettingsCommunity Nodes
  3. Нажмите Install
  4. Найдите n8n-nodes-rvf-llm
  5. Нажмите Install рядом с пакетом
  6. n8n автоматически скачает и установит узлы
  7. Перезагрузитесь или дождитесь автоматического перезапуска
  8. Готово! Узлы теперь доступны в ваших workflows

⏱️ Требуемое время: 2-5 минут


Ручная установка

Для self-hosted n8n или когда GUI-установка недоступна:

  1. Перейдите в папку кастомных узлов n8n:

    cd ~/.n8n/nodes
    # или если используете Docker: /root/.n8n/nodes
  2. Клонируйте репозиторий:

    git clone https://github.com/Xrey995/n8n-nodes-rvf-llm.git
    cd n8n-nodes-rvf-llm
  3. Установите зависимости:

    npm install
  4. Соберите узлы:

    npm run build
  5. Перезагрузите n8n:

    # Если запущено локально:
    npm restart
       
    # Если используете Docker:
    docker restart n8n

Установка через NPM

Для опытных пользователей, которые хотят установить через npm:

# В директории n8n:
npm install n8n-nodes-rvf-llm

# Затем перезагрузите n8n

Обзор узлов

Узел RVF LLM

Тип: Action Node
Назначение: Генерация контента (текст, изображения, аудио, видео) от AI-провайдеров

Ключевые возможности

  • Мультиформатный вывод: Генерация текста, изображений, аудио, видео
  • Выбор провайдера: Выбирайте из 10+ AI-провайдеров
  • Гибкость моделей: 20+ доступных моделей
  • Контроль параметров: Temperature, max tokens, top-p tuning
  • Встроенные инструменты: Веб-поиск, интерпретатор кода, анализ файлов
  • Поддержка потоковой передачи: Трансляция ответов в реальном времени

Конфигурация узла

| Поле | Тип | Описание | Пример | |------|-----|---------|--------| | Provider | Dropdown | Выбор AI-провайдера | OpenAI, Anthropic, Google | | Model | Dropdown | Выбор модели (фильтруется по провайдеру) | gpt-4, claude-3-opus, gemini-pro | | Messages | Array | Сообщения диалога | [{role: "user", content: "..."}] | | Temperature | Number | Случайность ответа (0-2) | 0.7 | | Max Tokens | Number | Максимальная длина вывода | 2000 | | Top P | Number | Параметр nucleus sampling (0-1) | 0.9 | | Use Web Search | Boolean | Включить веб-поиск в ответах | true/false | | Use Code Interpreter | Boolean | Включить выполнение кода | true/false |

Формат входа

{
  "resource": "generate",
  "provider": "openai",
  "model": "gpt-4",
  "messages": [
    {
      "role": "user",
      "content": "Объясни квантовые вычисления простыми словами"
    }
  ],
  "temperature": 0.7,
  "max_tokens": 1000
}

Формат вывода

{
  "text": "Квантовые вычисления - это тип вычислений...",
  "role": "assistant",
  "finishReason": "stop",
  "model": "gpt-4",
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 150,
    "total_tokens": 160
  }
}

Узел RVF LLM Chat Model

Тип: Model Node (для AI Chains)
Назначение: LangChain-совместимая chat-модель для AI Agents и chains

Ключевые возможности

  • Поддержка вызова инструментов: Полная совместимость с n8n AI Agent
  • Интеграция LangChain: Работает с любым LangChain workflow
  • Вызов функций: Выполняйте инструменты на основе ответов модели
  • История сообщений: Сохраняет контекст беседы
  • Поддержка потоковой передачи: Трансляция ответов в реальном времени

Конфигурация узла

| Поле | Тип | Описание | |------|-----|---------| | Provider | Dropdown | AI-провайдер | | Model | Dropdown | Выбор chat-модели | | Temperature | Number | Случайность ответа | | Max Tokens | Number | Максимальная длина вывода | | Stream | Boolean | Включить потоковую передачу |

Интеграция с AI Agent

Входные данные пользователя
    ↓
AI Agent (используя RVF LLM Chat Model)
    ├─ Анализирует доступные инструменты
    ├─ Маршрутизирует к RVF LLM Chat Model
    ├─ Модель решает, какой инструмент вызвать
    ↓
Выполнение инструмента (веб-поиск, код, и т.д.)
    ↓
Ответ пользователю

Конфигурация

Настройка API-ключей

Шаг 1: Получите ваш API-ключ

  1. Посетите Бот Telegram @FreeApiLLMbot
  2. Воспользуйтесь клавиатурой бота. Можно получить тестовый ключ 1 раз на 1 час (30 запросов). Либо купите ключ длительностью 1 месяц. Количество запросов и количество токенов не лимитировано. Единственное ограничение ключа: не более 30 запросов в минуту.
  3. Нажмите на кнопку "Купить полный доступ"
  4. Оплата производится при помощи сервию Юкасса. После оплаты в ваш чат с ботом придет сгенерированный ключ.
  5. Формат: rvf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Шаг 2: Добавьте учётные данные в n8n

  1. SettingsCredentials
  2. Нажмите + New
  3. Найдите "RVF LLM API"
  4. Заполните:
    • API Key: rvf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Base URL: https://rvlautoai.ru/webhook (по умолчанию)
  5. Нажмите Create

Шаг 3: Используйте в ваших workflows

В любом узле RVF LLM:

  1. Нажмите dropdown Credentials
  2. Выберите созданные учётные данные
  3. Начните создавать!

*Доступные провайдеры и модели

(список доступных провайдеров и моделей обновляется ежедневно, в 02:00 по МСК и может отличаться от списка ниже)

| Провайдер | Популярные модели | Примечания | |-----------|---|---| | OpenAI | gpt-4, gpt-3.5-turbo | Отраслевой стандарт, лучший для общих задач | | Anthropic | claude-3-opus, claude-3-sonnet | Отличные логические рассуждения, большой контекст | | Google | gemini-pro, palm-2 | Сильные в мультимодальных задачах | | Cohere | command-r, command | Отличные для настроенных ответов | | Mistral | mistral-large, mistral-medium | Open-source дружелюбные, экономичные | | Ollama | Любая локальная модель | Запускайте модели на вашем оборудовании | | LLaMA | llama-2-7b, llama-2-13b | Open-source альтернативы |

Чтобы увидеть доступные провайдеры для вашего API-ключа:

1. Добавьте узел RVF LLM
2. Выберите ваши учётные данные
3. Нажмите dropdown "Provider"
4. Все доступные провайдеры загрузятся автоматически

Доступные модели

Модели загружаются динамически на основе:

  • Разрешений вашего API-ключа
  • Выбранного провайдера
  • Уровня подписки

Чтобы увидеть доступные модели:

1. Выберите Provider (например, "OpenAI")
2. Нажмите dropdown "Model"
3. Все совместимые модели отобразятся автоматически

Примеры использования

Базовая генерация текста

Сценарий использования: Простой Q&A из workflow

{
  "provider": "openai",
  "model": "gpt-4",
  "messages": [
    {
      "role": "system",
      "content": "Ты полезный помощник."
    },
    {
      "role": "user",
      "content": "Какая столица Франции?"
    }
  ],
  "temperature": 0.7,
  "max_tokens": 500
}

Ожидаемый вывод:

{
  "text": "Столица Франции - Париж.",
  "role": "assistant"
}

Генерация изображений (ВНИМАНЕ!: модели типа flux понимают только английский язык! инструкции для этих моделей составляйте на английском языке)

Сценарий использования: Генерация изображений продуктов или визуализаций

{
  "provider": "openai",
  "model": "dall-e-3",
  "messages": [
    {
      "role": "user",
      "content": "Создай изображение киберпанк города ночью"
    }
  ]
}

Вывод: URL изображения в поле data (готово для отображения или сохранения)


Маршрутизация между провайдерами

Сценарий использования: Направляйте запросы в зависимости от стоимости и скорости

// В n8n Code node перед RVF LLM:
if ($input.first().json.urgency === "high") {
  return { provider: "openai", model: "gpt-4" }; // Быстрее всего
} else {
  return { provider: "mistral", model: "mistral-large" }; // Экономичнее
}

Интеграция с AI Agent

Структура workflow:

Trigger (Manual/Webhook)
    ↓
AI Agent node
    ├─ Использует RVF LLM Chat Model
    ├─ Подключённые инструменты (веб-поиск, исполнитель кода, и т.д.)
    ↓
RVF LLM Chat Model (как подключённая модель)
    ├─ Анализирует запрос пользователя
    ├─ Решает, какие инструменты использовать
    ↓
Выполнение инструмента
    ├─ Веб-поиск
    ├─ Выполнение кода
    ├─ Запрос БД
    ↓
Сборка ответа
    ↓
Вывод пользователю

Пример конфигурации workflow:

  1. Добавьте узел AI Agent
  2. В dropdown "Model" → выберите узел "RVF LLM Chat Model" (из canvas)
  3. Добавьте инструменты (веб-поиск, исполнитель кода)
  4. Конфигурируйте узел RVF LLM Chat Model со своими учётными данными
  5. Запустите!

Расширенные возможности

Потоковая передача ответов

Для трансляции в реальном времени в ваших workflows:

{
  "provider": "openai",
  "model": "gpt-4",
  "stream": true,
  "messages": [...],
  "maxTokens": 2000
}

n8n будет транслировать ответы токен-за-токеном для live-обновлений.


Кеширование запросов

RVF LLM автоматически кеширует идентичные запросы:

Первый вызов: Полный API-запрос → 2-3 секунды
Кешированный вызов: Моментальный ответ → <100ms

Cache TTL: 1 час (конфигурируется через API)


Обработка ошибок

Встроенная логика повтора и fallback-механизмы:

{
  "maxRetries": 3,
  "retryDelay": 1000,
  "fallbackProvider": "anthropic"
}

Ограничение частоты запросов

Автоматическое ограничение частоты для соблюдения API-квот:

{
  "requestsPerMinute": 60,
  "burstLimit": 10
}

Решение проблем

Проблема: "Credential not found"

Решение:

  1. Перейдите в SettingsCredentials
  2. Проверьте, что учётные данные RVF LLM API существуют
  3. Проверьте, что API-ключ начинается с rvf_
  4. Пересоздайте, если необходимо
  5. Проверьте в Telegram боте @FreeApiLLMbot срок действия ключа (срок действия 1 месяц с момента первого использования)

Проблема: "No models available"

Возможные причины:

  • Неверный или истёкший API-ключ
  • Провайдер недоступен
  • Модель недоступна
  • Проблема с сетевым соединением

Решение:

  1. Используйте верный ключ с неистекшим сроком действия. Получить ключ https://t.me/FreeApiLLMbot.
  2. Проверьте, что выбранные провайдер и модель существуют
  3. Проверьте, что n8n может подключиться к https://rvlautoai.ru/webhook

Проблема: "Rate limit exceeded"

Решение:

  1. Уменьшите параметр requestsPerMinute
  2. Увеличьте время ожидания между запросами

Проблема: "Node not appearing in node list"

Решение:

  1. Убедитесь, что установка завершена: npm run build
  2. Перезагрузите n8n: docker restart n8n (или npm restart)
  3. Жёсткое обновление браузера (Ctrl+Shift+R или Cmd+Shift+R)
  4. Проверьте консоль браузера на ошибки

Документация API

Полная документация API:

📚 Полный API-гайд: Бот Telegram @FreeApiLLMbot

Ключевые эндпойнты, используемые этими узлами:

  • POST /v1/chat/completions — Генерация текста
  • GET /v1/models — Список доступных моделей
  • GET /v1/providers — Список доступных провайдеров
  • GET /v1/models/list — Детальная информация о моделях

Установка для разработки:

git clone https://github.com/Xrey995/n8n-nodes-rvf-llm.git
cd n8n-nodes-rvf-llm
npm install
npm run dev

Лицензия

MIT License — См. файл LICENSE для деталей


🐛 Сообщить об ошибке

GitHub Issues


Журнал изменений

Версия 1.0.0 (Ноябрь 2025)

Первый выпуск

  • Узел RVF LLM для генерации контента
  • Узел RVF LLM Chat Model для AI Agents
  • Поддержка 50+ моделей от 10+ провайдеров
  • Полная интеграция LangChain
  • Комплексная обработка ошибок
  • Production-ready код