нейропоток
Гайды

Unsloth Studio: дообучаем AI-модель без кода

Как дообучить AI на своих данных бесплатно и локально. Пошаговый гайд по Unsloth Studio для тех, кто строит продукт без ML-команды.

Павел·8 мин чтения
Unsloth Studio: дообучаем AI-модель без кода
Поделиться:TelegramVK

Вы платите OpenAI $200–500 в месяц за API. Ваш чат-бот отвечает клиентам хорошо, но не идеально — путает тон, не знает внутреннюю терминологию, иногда несёт отсебятину. Вы бы хотели модель, которая точно знает ваш продукт и стоит $0 в месяц за запросы. Но fine-tuning — это же ML-инженер за $150K/год, кластер GPU, недели экспериментов?

Уже нет. 17 марта 2026 года на конференции NVIDIA GTC вышел Unsloth Studio — бесплатный open-source инструмент, который позволяет дообучить AI-модель на своих данных через браузерный интерфейс. Без кода. Без облака. На обычной видеокарте.

В этом гайде — зачем это нужно вашему бизнесу, сколько реально стоит и как это сделать самому за вечер.

Зачем дообучать модель, если есть ChatGPT

Когда вы используете ChatGPT или Claude через API, вы арендуете чужой мозг. Каждый запрос — деньги. Модель ничего не знает о вашем продукте, пока вы не объясните ей в промпте или не подсунете документы через RAG.

Fine-tuning — это другой подход. Вы берёте открытую модель (бесплатную, с лицензией на коммерческое использование) и обучаете её на своих данных. После этого модель знает ваш продукт «из коробки» — без длинных промптов и без подгрузки документов на каждый запрос.

Вот что это даёт на практике:

Стоимость запросов → $0. Дообученная модель работает на вашем компьютере или дешёвом сервере. Никаких API-тарифов, никаких лимитов на токены.

Качество ответов растёт. Модель знает вашу терминологию, стиль общения, продуктовую документацию. Не нужно каждый раз объяснять в промпте, кто вы и чем занимаетесь.

Данные не уходят наружу. Переписка клиентов, внутренние документы, финансовые данные — всё остаётся на вашей машине.

Скорость ответов выше. Локальная модель отвечает за миллисекунды, а не ждёт очереди на серверах OpenAI.

Звучит отлично, но раньше для этого нужна была ML-команда. Unsloth Studio меняет правила — теперь fine-tuning доступен соло-фаундерам.

Сколько это стоит: честный расклад

Прежде чем погружаться в инструкцию — давайте посчитаем деньги. Это то, что решает, стоит ли вообще заморачиваться.

Бесплатно: Google Colab

Unsloth Studio запускается на бесплатном Google Colab с GPU Tesla T4. Этого хватает для дообучения моделей до 9 миллиардов параметров — а Qwen 3.5-9B уже бьёт по качеству модель от OpenAI, которая в 13 раз больше.

Ограничения: сессия Colab живёт несколько часов, потом нужно переподключаться. Для экспериментов — идеально. Для регулярной работы — неудобно.

Своя видеокарта: $0 после покупки

Если у вас есть десктоп с видеокартой NVIDIA RTX 3060 (12 ГБ видеопамяти) или лучше — вы можете дообучать модели прямо у себя. RTX 3060 можно найти за $250–300 на вторичке. RTX 4090 — за $1 500–1 800, но это уже серьёзная машина, на которой обучаются модели до 27 миллиардов параметров.

Облачный GPU: $2–6 за модель

Арендовать GPU на пару часов: Vast.ai, RunPod, Lambda. A100 с 80 ГБ видеопамяти — около $1.5/час. Дообучение занимает 1–4 часа. Итого: $2–6 за одну модель.

Сравнение с API

API (GPT-5.4)Дообученная модель
Стоимость/мес при 100K запросов$200–500$0 (локально)
Знание вашего продуктаЧерез промпт/RAGВстроено в модель
Приватность данныхДанные уходят в облакоВсё локально
Первоначальные затраты$0$0–6 (Colab / облако)
Нужен ли ML-инженерНетНет (с Unsloth Studio)

При 100K запросов в месяц fine-tuning окупается с первого дня. При 10K — за первый месяц.

Какие задачи решает дообученная модель

Абстрактно fine-tuning звучит сложно. Вот конкретные сценарии, где это работает для соло-бизнеса:

Саппорт-бот на ваших данных. Загрузите FAQ, документацию, историю тикетов → дообучите модель → получите бота, который отвечает как ваш лучший саппорт-инженер. Без промптов на 2 000 токенов каждый раз.

Классификатор заявок. Модель читает входящие письма или лиды и раскладывает по категориям: «горячий лид», «техническая проблема», «спам». Точнее, чем правила, дешевле, чем API.

Контент-ассистент в вашем тоне. Дообучите модель на своих текстах — она пишет черновики в вашем стиле, с вашей терминологией. Без generic ChatGPT-водянистости.

Внутренний ассистент по продукту. Для команды из 2–5 человек: модель знает ваш стек, процессы, документацию и отвечает на вопросы новых людей вместо вас.

Что такое Unsloth Studio

Unsloth — open-source библиотека для дообучения AI-моделей, которая существует с 2023 года. 55 000 звёзд на GitHub, поддержка 500+ моделей. Главная фишка — кастомные вычислительные ядра, которые делают обучение вдвое быстрее и потребляют на 70% меньше видеопамяти, чем стандартные решения.

Но до марта 2026 года Unsloth работал только через код — Python, командная строка, Jupyter-ноутбуки. Для разработчика это нормально. Для фаундера, который строит SaaS и не хочет тратить неделю на настройку CUDA — барьер.

Unsloth Studio — браузерный интерфейс поверх Unsloth. Вышел 17 марта 2026 года в партнёрстве с NVIDIA и Hugging Face. Весь пайплайн — от загрузки данных до экспорта готовой модели — через визуальные формы и кнопки.

Что внутри:

  • Запуск и чат с 500+ открытыми моделями прямо из интерфейса
  • Data Recipes — загружаете PDF или CSV, Studio автоматически превращает их в обучающие данные
  • Обучение с мониторингом в реальном времени: графики, загрузка GPU, прогресс
  • Экспорт в Ollama, vLLM, LM Studio одной кнопкой
  • Compare Mode — сравнение ответов базовой и дообученной модели бок о бок
  • 100% офлайн, никакой телеметрии, данные не покидают ваш компьютер

Схема пайплайна Unsloth Studio: данные → Data Recipes → обучение → экспорт

Пошаговый гайд: от нуля до работающей модели

Шаг 1. Запуск

Самый быстрый путь — Google Colab (бесплатно, без установки):

Откройте Colab-ноутбук от Unsloth, нажмите «Run All» и дождитесь ссылки на Studio. Первый запуск занимает 10–40 минут (компилируется llama.cpp). После этого вы увидите интерфейс Studio в браузере.

Установка на свой компьютер (если есть NVIDIA GPU):

bash
pip install --upgrade pip && pip install uv uv pip install unsloth --torch-backend=auto unsloth studio setup unsloth studio -H 0.0.0.0 -p 8888

Четыре команды — и Studio работает на localhost:8888. Первая установка занимает 5–10 минут: система автоматически ставит все зависимости.

Шаг 2. Подготовка данных через Data Recipes

Раньше подготовка датасета была отдельным проектом: вручную создавать пары «вопрос — ответ», чистить формат, разбираться с токенизацией. Data Recipes делает это автоматически.

  1. Перетащите файлы в интерфейс: PDF с документацией, CSV с тикетами, TXT с вашими текстами.
  2. Studio парсит документы, разбивает на секции и генерирует пары «вопрос — ответ» в правильном формате.
  3. Проверьте результат в превью и скорректируйте, если нужно.

Для первого эксперимента хватит 100–500 примеров. Маленький чистый датасет работает лучше, чем большой грязный.

Схема Data Recipes: от документа до датасета

Шаг 3. Выбор модели

На странице Model введите имя модели. Studio подтянет конфигурацию и заполнит все настройки.

Какую модель выбрать для старта:

МодельРазмерВидеопамятьДля чего
Qwen3.5-4B4B~5 ГБКлассификация, простые ответы
Qwen3.5-9B9B~8 ГБУниверсальная, лучший баланс
Nemotron 3 Nano4B~5 ГБАгенты, tool calling

Qwen 3.5-9B — безопасный выбор. Мультиязычная (201 язык, включая русский), Apache 2.0 лицензия (коммерческое использование разрешено), влезает на бесплатный Colab.

Шаг 4. Обучение

Нажмите «Train». Все параметры уже заполнены разумными значениями — для первого раза менять ничего не нужно.

На экране появится дашборд. Главное, за чем следить — training loss (график потерь). Он должен плавно идти вниз. Идёт вниз — модель учится. Прыгает или растёт — проблема с данными.

Время обучения на 500 примерах: 15–30 минут на RTX 3060, 5–10 минут на RTX 4090.

Шаг 5. Проверка

Прежде чем деплоить — проверьте. Studio имеет встроенный Compare Mode: базовая и дообученная модель рядом, одинаковые вопросы, видите разницу.

Подготовьте 20–30 вопросов из реальных сценариев вашего продукта. Если дообученная модель отвечает лучше на 80%+ — вы на верном пути.

Шаг 6. Экспорт и запуск

На вкладке Export выберите формат GGUF и нажмите кнопку. Studio сконвертирует модель.

Запуск через Ollama:

bash
ollama create my-model -f /path/to/Modelfile ollama run my-model

Две команды — модель работает локально. Подключаете к чат-боту, сайту или приложению через API на localhost:11434.

Ограничения: о чём молчат в промо

Бета-версия. Studio вышел 17 марта 2026. Баги есть, особенно на Windows. 15+ исправлений за первые сутки — разработчики реагируют быстро, но шероховатости неизбежны.

Только NVIDIA для обучения. AMD, Intel, Apple Silicon — пока нет. На Mac можно запускать модели для чата, но не обучать. Поддержка Apple MLX — в разработке.

Не магия. Дообученная модель на 9B параметров не станет GPT-5.4. Она будет лучше в вашей узкой области, но слабее в общих знаниях. Это специализация, не апгрейд всего.

Качество = данные. Если ваш датасет — мусор, модель научится генерировать мусор быстрее. Garbage in → garbage out.

Не для 10 запросов в день. Если у вас маленький объём — проще и дешевле использовать API. Fine-tuning окупается на масштабе: сотни и тысячи запросов.

FAQ

Нужно ли знать Python? Нет. Unsloth Studio — браузерный интерфейс. Установка — 4 команды в терминале (или просто откройте Colab). Дальше всё через GUI. Если вы когда-нибудь ставили npm-пакет или запускали Docker — справитесь.

Какая минимальная видеокарта? NVIDIA RTX 3060 с 12 ГБ видеопамяти. Без видеокарты — бесплатный Google Colab.

Это легально для бизнеса? Да. Ядро Unsloth — Apache 2.0. UI Studio — AGPL-3.0. Модели вроде Qwen 3.5 — Apache 2.0. Для соло-стартапа ограничений нет.

Данные куда-то отправляются? Нет. Studio работает 100% локально. Телеметрия не собирается. Единственное сетевое обращение — скачивание модели с Hugging Face при первой загрузке.

Чем это лучше, чем хороший промпт? Промпт — это инструкция стажёру на каждый день. Fine-tuning — это обученный специалист, который уже знает вашу специфику. Разница становится заметной, когда запросов много и контекст сложный.