нейропоток
Автоматизация

n8n AI агент без кода: собираем автономного бота

n8n AI агент без кода: пошагово собираем бота на AI Agent ноде + Ollama, self-hosted стек. Сравнение n8n vs Zapier vs Make, подводные камни.

Павел·9 мин чтения
n8n AI агент без кода: собираем автономного бота
Поделиться:TelegramVK

Каждый день одно и то же. Клиент пишет в Telegram — иду проверять CRM. Проверил CRM — иду обновлять Google Sheets. Обновил таблицу — иду отвечать клиенту. Сорок минут на цикл, который можно описать одним предложением: «посмотри данные и ответь человеку». Я пробовал Zapier, пробовал Make — работает, но AI там на уровне «отправь текст в ChatGPT и верни ответ». Никакой автономности, никакого выбора инструментов. Просто прокси к API.

А потом я наткнулся на n8n. И конкретно на AI Agent ноду. И понял, что n8n AI агент без кода — это не маркетинговый буллшит, а реально рабочая штука. Агент сам решает, какой инструмент дёрнуть, сам ходит в базу и формулирует ответ. Drag-and-drop. Бесплатно, если self-hosted.

Что такое n8n автоматизация и почему 180 тысяч звёзд на GitHub

n8n — это визуальный конструктор автоматизаций. Open-source, fair-code лицензия. Ты соединяешь ноды на канвасе — каждая нода делает одну штуку: отправить сообщение, сходить в API, записать в базу. Звучит как Zapier? Да, только с парой принципиальных отличий.

Главное — self-hosted. Ставишь на свой сервер и работаешь. Без лимитов на количество workflow, без оплаты за каждый «зап». Дальше — AI. Около 70 AI-нод, построенных на LangChain. Не «пять штук для красоты» — семьдесят. Модели, память, инструменты, векторные хранилища, RAG-пайплайны. Ну и 400+ интеграций: Telegram, Slack, Google Sheets, CRM-ки, базы данных, HTTP-запросы на что угодно.

180 тысяч звёзд на GitHub. Номер один среди JavaScript-проектов в 2025-м. Используют в Meta, Microsoft, Vodafone. Это не хобби-проект одного энтузиаста — это инструмент, на который ставят серьёзные компании.

Облако — от 24 евро в месяц. Self-hosted — бесплатно. Совсем. Без звёздочек мелким шрифтом.

n8n AI ноды: что под капотом AI Agent

Вот тут самое интересное. Обычные ноды в n8n линейные: данные прилетели, обработались, ушли дальше. AI Agent нода работает иначе. Это автономный агент на LangChain, который сам решает, какие инструменты использовать и в каком порядке.

Как это выглядит. Ты создаёшь AI Agent ноду и подключаешь к ней:

  • Модель — OpenAI, Anthropic, Google, или Ollama для локальных моделей
  • Память — Window Buffer, Summary Buffer, Redis, PostgreSQL
  • Инструменты — HTTP Request, Code, Calculator, Wikipedia, Vector Store, и самое вкусное — Workflow Tool

Агент получает задачу, смотрит на доступные инструменты и сам строит план. Не ты прописываешь «если X, то Y» — агент сам думает. Спросили его «какой статус заказа 4521?» — он сам решает: сначала дёрну CRM через HTTP Request, потом сформулирую ответ. Спросили «подготовь отчёт по продажам за неделю» — он идёт в Google Sheets, тянет данные, обрабатывает, генерирует текст.

С версии 1.82.0 появился Tools Agent — улучшенная версия, которая работает с function calling. Модель явно «вызывает» инструменты, а не пытается угадать формат ответа. Надёжнее, предсказуемее.

Инфо

Workflow Tool — киллер-фича n8n. Любой workflow, который ты уже построил, можно превратить в инструмент агента. Есть workflow, который парсит сайт и складывает данные в таблицу? Подключи его как Tool — и агент сможет вызывать его когда нужно. Никакого кода.

Если сравнить с тем, как устроен AI-агент eSentire для анализа угроз — принцип тот же: агент формулирует гипотезу, выбирает инструмент, проверяет, корректирует. Только там Python + LangGraph, а тут — визуальный конструктор. Порог входа на порядок ниже.

Собираем AI-агента за 30 минут — пошагово

Ладно, хватит теории. Собираем. Задача: Telegram-бот, который отвечает на вопросы клиентов, используя базу знаний из Google Sheets.

Шаг 1: Триггер. Ставим ноду Telegram Trigger. Бот получает сообщение — workflow запускается. Одна нода, одна настройка — токен бота.

Шаг 2: AI Agent. Добавляем AI Agent ноду. Подключаем модель — допустим, GPT-4o через OpenAI. Пишем системный промпт: «Ты — ассистент компании X. Отвечаешь на вопросы клиентов, используя данные из базы знаний. Если не знаешь ответ — честно скажи и предложи связаться с менеджером.»

Тут работает тот же принцип, что и в контекст-инжиниринге: промпт — не строчка текста, а система. Чем точнее опишешь роль, границы и формат ответа, тем адекватнее будет агент.

Шаг 3: Инструменты. Создаём sub-workflow: нода Google Sheets читает таблицу с FAQ, ищет релевантный ответ. Подключаем этот workflow как Workflow Tool к агенту. Называем его «Поиск по базе знаний». Агент теперь сам решает — нужно ли лезть в базу или он может ответить из контекста.

Шаг 4: Память. Подключаем Window Buffer Memory — агент помнит последние 10 сообщений в диалоге. Клиент может уточнять, переспрашивать, менять тему — контекст не теряется.

Шаг 5: Ответ. Выход AI Agent ноды отправляем обратно в Telegram через ноду Telegram Send Message.

Три ноды в основном потоке (Trigger, Agent, Send), один sub-workflow для инструмента. Тридцать минут, если не считать время на создание бота в BotFather. Без единой строчки кода.

Совет

Начните с Window Buffer Memory на 10-15 сообщений. Этого хватает для большинства диалогов. Если нужна долгосрочная память — подключайте PostgreSQL или Redis, но для старта это overkill.

n8n self-hosted AI: Ollama и полностью бесплатный стек

Вот что меня зацепило больше всего. n8n предлагает AI Starter Kit — Docker Compose, который одной командой поднимает n8n, Ollama для локальных моделей, Qdrant как векторное хранилище для RAG и PostgreSQL для памяти агента.

Полный AI-стек. На своём железе. Без подписок и API-ключей. Запустил docker compose up — и работаешь.

Ollama — это локальные модели: Llama 3, Mistral, Phi, Gemma. Если хочется выжать максимум из open-source моделей, можно дообучить их под свои задачи через Unsloth. Качество ниже, чем GPT-4o или Claude, да. Но для типовых задач — классификация обращений, ответы по FAQ, суммаризация — хватает с запасом. А главное — работает из России без прокси. Никаких VPN, никаких блокировок. Модель крутится на твоём сервере.

Для тех, кто параноит про данные — вообще идеальный вариант. Клиентские обращения не уходят ни в какой облачный API. Всё локально.

Железо? На MacBook с M2 и 16 Гб оперативки Llama 3 8B отвечает за 2-3 секунды. На VPS с 32 Гб — стабильно и с запасом. Для продакшена рекомендую минимум 16 Гб RAM и хотя бы средний процессор.

n8n vs Zapier vs Make: где AI-автоматизация реально работает?

Все три инструмента умеют автоматизировать. Но в контексте AI разница огромная.

n8nMakeZapier
AI-ноды~70, на LangChainБазовые (OpenAI, пара модулей)Базовые (OpenAI, ChatGPT)
AI AgentПолноценный, автономныйНетНет
Self-hostedДа, бесплатноНетНет
Локальные моделиOllamaНетНет
MCPСервер + клиентНетНет
Бесплатный планSelf-hosted безлимит1000 ops/мес100 tasks/мес
Интеграции1000+1500+7000+

Make и Zapier выигрывают по количеству интеграций. Zapier — 7000+ коннекторов, Make — 1500+. Если тебе нужно связать два SaaS-сервиса простым «когда X, сделай Y» — они по-прежнему удобнее. Больше готовых шаблонов, проще интерфейс.

Но как только нужен AI-агент, который сам принимает решения, выбирает инструменты, помнит контекст — n8n в другой лиге. Make и Zapier умеют «отправить текст в GPT и получить ответ». n8n умеет «создать агента, который сам решает, что делать». Разница как между калькулятором и программистом.

Ещё момент — MCP (Model Context Protocol). n8n поддерживает его и как сервер, и как клиент. Это значит, что агент в n8n может подключаться к внешним MCP-серверам и получать оттуда инструменты. Та же архитектура, что у субагентов в экосистеме OpenAI, только открытая и без привязки к одному провайдеру.

Подводные камни n8n LangChain — честно

Окей, хватит хвалить. Вот что бесит.

Документация процентов на 80 — на английском. Русскоязычных туториалов мало, и большинство устарели. AI-ноды обновляются быстро, и гайд полугодовой давности может описывать интерфейс, которого уже нет. Готовьтесь гуглить на английском и читать GitHub Issues.

Отладка — отдельная боль. Когда AI Agent ведёт себя не так, как ожидаешь, разобраться непросто. Агент принял решение вызвать не тот инструмент? Почему? Логи есть, но цепочка reasoning модели — это не обычный код. Иногда проще переписать системный промпт с нуля, чем понять, почему агент выбрал Google Sheets вместо CRM.

По кривой обучения: n8n проще, чем писать код, но сложнее Zapier. Интерфейс мощный, не всегда интуитивный. Первые пару часов будешь тыкаться. К вечеру разберёшься. Ребята из SanctifAI собрали первый рабочий workflow за 2 часа и сказали, что это в 3 раза быстрее, чем было бы на Python + LangChain.

И ещё: self-hosted — это «поставил и поддерживаешь», а не «поставил и забыл». Нужно следить за обновлениями, бэкапами. Если не готов к серверному админству, бери облако за 24 евро.

Внимание

Локальные модели через Ollama — компромисс. Для FAQ-бота и классификации — норм. Для сложных рассуждений и генерации длинных текстов — заметно слабее GPT-4o или Claude. Тестируйте на реальных задачах перед тем, как отказываться от облачных моделей.

Реальные кейсы n8n автоматизации: сколько экономит

Цифры из реальных внедрений, не из маркетинговых брошюр.

Одна компания подключила n8n + AI Agent к внутренней HR-базе (политики, инструкции, регламенты). Сотрудники спрашивают в Slack — агент отвечает, ссылаясь на конкретные документы. Экономия: 10+ часов в неделю, которые раньше HR-менеджер тратил на одни и те же вопросы.

Несколько digital-агентств отчитались об экономии 30-50 часов в неделю на рутине: сбор данных из разных источников, генерация отчётов, рассылка уведомлений. Агент в n8n заменил цепочку из пяти ручных шагов.

Тот самый Telegram-бот, который я описал выше. Три ноды, 30 минут на сборку. Бот закрывает 80% типовых вопросов без менеджера. Остальные 20% — эскалация на живого человека. Экономия: 2-3 часа в день.

Для контекста: это не уровень маркетплейса AI-агентов Picsart, где агенты готовые и заточены под конкретные задачи. В n8n ты строишь агента сам, под свои процессы. Гибкость выше, но и времени на настройку больше.

Если говорить про деньги: self-hosted стек обходится в стоимость VPS — 500-1500 рублей в месяц. Облачный n8n — от 24 евро. Для сравнения, один менеджер на рутинных операциях стоит 50-80 тысяч в месяц. Арифметика очевидная.

Кому подойдёт n8n AI агент без кода?

Если у вас малый бизнес и вы хотите автоматизировать поддержку, не подписываясь на Zapier Pro — n8n ваш вариант. Техничным маркетологам и аналитикам, которые понимают логику «если — то», тоже зайдёт. Разработчикам для быстрого прототипа AI-агента без возни с инфраструктурой. Ну и компаниям из России, которым критична работа без зависимости от западных облаков, это вообще подарок — Ollama крутится локально.

А вот если вы хотите «нажал кнопку — работает», n8n не для вас. Порог входа выше, чем у Zapier. Если нужны 7000 готовых коннекторов — тут Zapier выигрывает вчистую. И для продакшена без DevOps-ресурса self-hosted будет головной болью.


Я перепробовал Zapier, Make и n8n. Для простых связок «когда X, сделай Y» первые два до сих пор нормальные. Но когда мне понадобился агент, который сам выбирает инструменты и помнит контекст разговора, выбор стал очевиден. 70 AI-нод, self-hosted за ноль рублей, Ollama без прокси из России.

Начните с AI Starter Kit: docker compose up и через 10 минут у вас полный стек. Соберите Telegram-бота за вечер. Если зайдёт — переносите рабочие процессы. Мне зашло.