Полгода назад я писал промпты в лоб: «сделай мне текст для поста». Получал текст. Иногда норм, чаще — переписывал руками. Потом начал добавлять контекст, роль, примеры. Стало заметно лучше. А потом появился уровень, где модель сама решает, что делать, — и вот там уже реально интересно.
За эти полгода я прошёл три чётко разных уровня работы с промптами. Они отличаются не сложностью — они отличаются тем, как вы думаете о задаче. Сегодня покажу все три на одном примере, чтобы разница была очевидна.
Статья для тех, кто пишет промпты и хочет понять, почему одни работают лучше других — и что нужно, чтобы выйти на следующий уровень. Если вы только начинаете с нейросетями — прочитайте сначала про базовые приёмы промптинга, потом возвращайтесь сюда.
Сквозная задача для всех трёх уровней — написать продающий пост в Telegram-канал о новом AI-инструменте. Конкретно: пост о том, что вышел Gamma Imagine — инструмент для генерации визуалов по промпту прямо внутри презентаций.
Почему один промпт — это не система
Большинство людей работают так: пришла задача — написали промпт — получили ответ — поправили руками. Иногда работает. Но чем сложнее задача, тем чаще модель угадывает вместо того, чтобы решать. Она не знает вашего тона, не понимает аудиторию, не знает что уже было в вашем канале.
Проблема не в том, что промпт плохой. Проблема в том, что промпт — это только один элемент из нескольких. Остальные вы просто не передали. Модель (LLM — large language model, большая языковая модель) делает ставку исходя из того, что вы дали. Дали мало — результат случайный.
Промпт как система — это когда вы осознанно управляете тем, что именно передаёте модели: роль, контекст, примеры, задача. На каждом следующем уровне вы передаёте больше — и получаете предсказуемее.
Уровень 1 — базовый промпт: попросил и надеешься
Что такое базовый промпт
Базовый промпт — это одна инструкция без контекста. «Напиши пост о Gamma Imagine». Модель не знает: для кого, в каком тоне, какой длины, с каким фокусом. Она придумывает сама. Иногда угадывает.
Вот как это выглядит на нашей задаче:
Напиши пост для Telegram-канала о новом AI-инструменте Gamma Imagine.
Что получите: академичный текст про «революционный инструмент», «мощные возможности» и «новый уровень презентаций». Скучно, безлично, могло быть написано о чём угодно. Никакого «вы» в тексте нет.
Три быстрых улучшения без перехода на новый уровень
Можно заметно улучшить базовый промпт, не усложняя систему:
1. Добавить роль. «Ты — автор Telegram-канала про AI для практиков». Модель калибрует тон под заданный контекст.
2. Добавить формат. «Пост до 300 слов, без списков, разговорный стиль». Конкретика убивает угадывание.
3. Добавить контекст задачи. «Инструмент позволяет генерировать картинки внутри презентации Gamma по промпту. Аудитория — маркетологи и контент-мейкеры».
Улучшенный базовый промпт:
Ты — автор Telegram-канала про AI для практиков.
Напиши пост до 300 слов о Gamma Imagine — это функция
генерации изображений прямо внутри презентаций Gamma.
Тон разговорный, пишем для маркетологов и контент-мейкеров.
Без пафоса, с конкретикой.
Результат уже лучше. Но всё равно — угадывание. Модель не знает, что именно ценного в инструменте, не знает ваш реальный опыт с ним, не видела, как вы пишете.
Совет
Быстрый тест: если в вашем промпте нет роли, формата и контекста — начните с их добавления. Это займёт две минуты и уже сдвинет результат. Подробнее про базовые техники промптинга — few-shot и chain-of-thought.
Уровень 2 — цепочка промптов с памятью
Разбиваем задачу на шаги
На втором уровне вы перестаёте просить модель «сделать всё сразу» и начинаете разбивать задачу на этапы. Каждый этап — отдельный промпт. Результат одного становится входом для следующего.
Для нашего Telegram-поста цепочка выглядит так:
Шаг 1 — Исследование:
Gamma выпустила Imagine — генерацию изображений по промпту
прямо внутри редактора презентаций. Доступно в платных планах.
Работает через текстовый запрос: описываешь — получаешь картинку.
Выдели 3-4 главных преимущества для маркетолога, который
делает презентации каждую неделю.
Шаг 2 — Ключевой тезис:
[вставляете ответ из шага 1]
На основе этих преимуществ: что самое важное для моей аудитории?
Одним предложением — главный инсайт поста.
Шаг 3 — Черновик:
[вставляете тезис из шага 2]
Напиши Telegram-пост до 300 слов в разговорном стиле.
Вот пример моего тона: [вставляете абзац из прошлого поста].
Начни не с "Gamma выпустила", а с ситуации читателя.
Шаг 4 — Правка:
[вставляете черновик из шага 3]
Убери канцелярит. Добавь конкретику: если можно поставить
цифру — поставь. Проверь: есть ли призыв попробовать?
Как передавать контекст между промптами
Это и есть «память» на втором уровне — вы вручную передаёте результат одного шага в следующий. Контекст (context window — «окно памяти» модели, объём текста, который она держит в голове за раз) накапливается с каждым шагом.
Разница с L1: модель больше не угадывает весь пост с нуля. Она решает маленькую конкретную задачу — и делает её хорошо. Chain-of-Thought (цепочка рассуждений — техника, при которой модель решает задачу шаг за шагом, а не одним прыжком) встроен в сам процесс: каждый следующий промпт работает с уже проделанной мыслительной работой.
Результат заметно другой. Пост получается с реальным фокусом, потому что фокус вы нашли на шаге 2, а не надеялись, что модель угадает.
Когда цепочки достаточно
Для большинства задач L2 — оптимальный уровень. Пост в Telegram, статья, письмо, анализ, разбор кода. Цепочка из трёх-пяти шагов покрывает 80% того, что нужно.
Ограничение одно: это ручная работа. Вы сами переносите результаты между шагами. Если задача повторяется каждый день — это утомляет. И если где-то один шаг дал плохой результат, вся цепочка съехала.
Инфо
Контекстная инженерия (проектирование всего окружения модели, не только промпта) — это следующий шаг после цепочки. Разбирал подробно в статье контекст инжиниринг: промпт как система.
Уровень 3 — агентный пайплайн с инструментами
Чем агент отличается от цепочки
На L2 вы сами решаете, какие шаги делать и в каком порядке. На L3 модель принимает эти решения сама.
Агент — это модель с инструментами (tools — функции, которые агент может вызывать: поиск в интернете, чтение файлов, запись данных, вызов API). Агент смотрит на задачу и решает: «мне нужно сначала найти информацию об инструменте, потом посмотреть прошлые посты, потом написать черновик, потом оценить его по чеклисту». И делает это сам.
Tools и почему это меняет всё
Инструменты дают агенту возможность работать с реальным миром, а не только с тем, что было в тренировочных данных. Агент пишущий пост о Gamma Imagine может сам найти актуальную информацию, прочитать, что уже было в вашем канале, и проверить, нет ли повторов.
Без инструментов модель работает только с тем, что вы передали в запросе. С инструментами — она действует.
Пример агентного пайплайна на той же задаче
Вот как выглядит системный промпт агента для написания Telegram-постов:
Ты — контент-агент Telegram-канала @neiropotok.
Канал для практиков, которые работают с AI-инструментами.
Твоя задача — написать пост о новом инструменте.
Действуй по порядку:
1. Поиск: найди актуальную информацию об инструменте
(используй web_search)
2. Анализ: что полезно для аудитории канала?
Проверь архив постов — не было ли уже (read_file: posts.md)
3. Черновик: напиши пост до 300 слов в тоне канала
(примеры тона — в файле style_guide.md)
4. Самопроверка: оцени черновик по чеклисту:
— начинается с ситуации читателя?
— есть конкретика (цифры, факты)?
— есть призыв к действию?
5. Финал: исправь, что не прошло чеклист.
Инструмент: [название]. Пиши.
Агент запускает шаги сам. Нашёл устаревшую информацию — переспросит. Обнаружил, что похожий пост был три недели назад — предупредит и предложит другой угол. Это и есть ReAct-паттерн (Reason + Act — агент сначала рассуждает, потом действует, потом снова рассуждает на основе результата). Подробнее про него — в статье ReAct-паттерн и AI-агенты.
Внимание
L3 — не значит «лучше для всего». Агентный пайплайн сложнее отлаживать: если что-то пошло не так на шаге 2, агент может уйти в неправильном направлении и вы узнаете об этом только в конце. Для одиночного поста раз в неделю — L2 проще и надёжнее. L3 окупается, когда задача повторяется много раз или требует работы с внешними данными.
Какой уровень выбрать и когда
Быстрая навигация — принцип простой: берите наименьший уровень, который решает задачу.
| Ситуация | Уровень |
|---|---|
| Нужен один текст, задача простая | L1 с ролью и форматом |
| Нужен качественный результат, задача многошаговая | L2 — цепочка |
| Та же задача повторяется каждый день | L2 → переходить на L3 |
| Нужны внешние данные (поиск, файлы, API) | L3 — агент |
| Нужно автоматизировать целый процесс | L3 с оркестрацией агентов |
Я сам дольше всего застрял на L1 с улучшенными промптами, думая, что это и есть «хороший промптинг». Цепочку освоил, когда начал работать над сложными статьями: понял, что один промпт физически не может хорошо сделать «исследование + структуру + текст» одновременно. А L3 появился, когда задач стало много и ручная работа между шагами начала отнимать больше времени, чем сама работа.
Что дальше
Три уровня — это не ступени, которые нужно пройти последовательно. Я использую все три в зависимости от задачи. Иногда в один день.
Если хотите копнуть глубже:
- Контекст инжиниринг — как устроены пять слоёв системного промпта, почему «больше контекста» не всегда лучше и как управлять памятью модели. Разобрал в отдельной статье.
- ReAct-паттерн — архитектура агентов: как модель чередует рассуждение и действие, и почему это работает лучше прямых инструкций. Статья про ReAct.
Попробуйте прямо сейчас: возьмите задачу, которую обычно решаете одним промптом, и разбейте её на три шага. Исследование — ключевой тезис — финальный текст. Посмотрите, как изменится результат. Почти всегда разница видна сразу.



