нейропоток
Гайды

LTX Video 2.3: запускаю open source видеогенерацию локально

LTX Video 2.3 — open source нейросеть для видео: запуск через Replicate без установки, ComfyUI локально, сравнение с Kling и RunwayML. Технический гайд 2026.

Павел·7 мин чтения
LTX Video 2.3: запускаю open source видеогенерацию локально
Поделиться:TelegramVK

Kling берёт кредиты. RunwayML берёт деньги. LTX Video — бесплатно, с открытым кодом, без водяных знаков и без ограничений на содержание.

Это не значит, что LTX Video лучше. По качеству картинки он честно проигрывает коммерческим инструментам. Но если тебе нужно генерировать 200 видео в день, встроить генерацию в пайплайн или просто не хочешь зависеть от чужих серверов и правил — это другой разговор.

Покажу три способа запуска: Replicate (без установки, за 2 минуты), ComfyUI (GUI на своём железе), командная строка для тех, кто хочет встроить в код. Выберешь тот, что под твой уровень.

Что такое LTX Video и кто его создал

Lightricks — израильская компания, которую знают по Facetune и другим мобильным редакторам фото. В 2024 году они выпустили LTX-Video — первую open source модель для видеогенерации, которая работает в реальном времени. Не "быстрее конкурентов", а именно real-time: видео генерируется быстрее, чем его длительность.

LTX Video 2.3 — актуальная версия на апрель 2026. Что в ней:

  • Разрешение до 1280×704 пикселей
  • До 257 кадров на одну генерацию (~8.5 секунд при 30fps)
  • DiT-архитектура (Diffusion Transformer) — та же база, что у Sora
  • ~8 миллиардов параметров
  • Лицензия Apache 2.0: можно использовать коммерчески, форкать, встраивать в продукты

GitHub: github.com/Lightricks/LTX-Video. Weights на Hugging Face.

Для тех, кто запускал Ollama или LM Studio — аналогия понятна: LTX Video для видеогенерации то же самое, что Llama для текста. Открытая модель, которую крутишь локально и никому не платишь.

Есть ещё Wan 2.1 от Alibaba — другой open source вариант. Wan чуть лучше по качеству, но тяжелее (14B параметров, нужно больше VRAM). LTX Video шустрее и легче запускается.

Способ 1: Replicate — первый запуск за 2 минуты

Для кого: хочется попробовать без GPU и установки чего-либо.

Replicate — это облачная платформа, где можно запустить опен-сорс модели через браузер. Платишь только за время генерации, GPU арендуется на секунды.

Пошагово:

  1. Открываешь replicate.com → в поиске вводишь ltx-video
  2. Регистрируешься через GitHub или Google (нужна карта для оплаты, первый $5 бонус обычно есть)
  3. Заходишь на страницу модели lightricks/ltx-video
  4. Заполняешь параметры:
prompt: A golden retriever running through autumn leaves in slow motion, cinematic, warm light, shallow depth of field negative_prompt: blurry, distorted, low quality, watermark width: 704 height: 480 num_frames: 25 guidance_scale: 3.5 num_inference_steps: 50
  1. Жмёшь Run → ждёшь 2-4 минуты → скачиваешь MP4

Цена за генерацию — около $0.01–0.05 в зависимости от параметров. Для сравнения: одно видео на RunwayML стоит $0.5+.

guidance_scale: 3.5 — это сколько модель следует промпту. Честно, 3.5 мне нравится больше, чем дефолт 7.5: меньше "нарисованности", больше движения.

Способ 2: ComfyUI — локально с GUI

Для кого: есть NVIDIA GPU от 6GB VRAM, хочется работать без интернета и без затрат на каждую генерацию.

Требования:

  • GPU: NVIDIA RTX 3060 или лучше (минимум 6GB VRAM; для 1280×704 нужно 10GB+)
  • RAM: 16GB+
  • Диск: 25GB свободных (15GB для весов модели)
  • ОС: Windows 10/11 или Linux

ComfyUI — нодовый редактор для диффузионных моделей. Если работал с Stable Diffusion, интерфейс знакомый. Если нет — немного непривычно, но привыкаешь за час.

Установка:

Шаг 1. Устанавливаем ComfyUI. Самый простой путь — ComfyUI Desktop (есть инсталлятор для Windows). Или через Python, если удобнее:

bash
git clone https://github.com/comfyanonymous/ComfyUI cd ComfyUI pip install -r requirements.txt

Шаг 2. Устанавливаем ComfyUI Manager — он нужен для установки расширений через GUI:

bash
cd custom_nodes git clone https://github.com/ltdrdata/ComfyUI-Manager

Шаг 3. Скачиваем ноды для LTX Video через ComfyUI Manager: запускаем ComfyUI, открываем Manager → "Install Custom Nodes" → ищем ComfyUI-LTXVideo → устанавливаем → перезапускаем.

Шаг 4. Скачиваем веса модели. Можно через браузер с Hugging Face, но проще через CLI:

bash
pip install huggingface_hub huggingface-cli download Lightricks/LTX-Video \ --local-dir ./models/checkpoints/ltx-video \ --include "*.safetensors"

Качается около 15GB — это основные веса. Можно оставить на ночь.

Шаг 5. Загружаем workflow. На странице ComfyUI-LTXVideo есть готовые JSON-файлы с воркфлоу. Скачиваем text_to_video.json и перетаскиваем в ComfyUI — граф загрузится автоматически.

Шаг 6. Меняем промпт в ноде CLIPTextEncode, жмём Queue Prompt. На RTX 3080 первое видео 704×480 в 25 кадров генерируется за 30-60 секунд.

Внимание

Если видишь ошибку CUDA out of memory — уменьши разрешение или количество кадров. Для 6GB VRAM рекомендую: width 512, height 320, num_frames 25. Полный 704×480 просит ~8-10GB.

Способ 3: Командная строка

Для кого: разработчики, нужно встроить в скрипт или пайплайн.

bash
pip install ltx-video diffusers transformers accelerate

Минимальный рабочий скрипт:

python
import torch from diffusers import LTXPipeline from diffusers.utils import export_to_video pipe = LTXPipeline.from_pretrained( "Lightricks/LTX-Video", torch_dtype=torch.bfloat16 ) pipe = pipe.to("cuda") # Генерация prompt = "A serene lake at sunset, gentle ripples on the water, golden hour light" negative_prompt = "worst quality, inconsistent motion, blurry, jittery, distorted" video = pipe( prompt=prompt, negative_prompt=negative_prompt, width=704, height=480, num_frames=25, num_inference_steps=50, guidance_scale=3.5, generator=torch.Generator("cuda").manual_seed(42), ).frames[0] export_to_video(video, "output.mp4", fps=24) print("Видео сохранено: output.mp4")

Seed 42 — для воспроизводимости результата. Убирай, если хочешь каждый раз разный результат.

Для batch-генерации можно обернуть в цикл — API у diffusers стандартный, всё как с Stable Diffusion.

Честный тест: что получается

Тест одним промптом на всех способах: "A cat walking on a rooftop at night, city lights below, cinematic, 4K"

Разница между Replicate и локальным ComfyUI — минимальная (те же веса). Качество зависит от промпта и параметров, не от способа запуска.

Сравнение с коммерческими инструментами:

ИнструментКачествоСкорость (RTX 3080)ЦенаОграничения
LTX Video (Replicate)7/102-4 мин~$0.03/видеоНет
LTX Video (локально)7/1030-60 секБесплатноНужен GPU
Kling AI8/102-4 минБесплатно*66 кредитов/12 ч
RunwayML9/101-3 мин$12+/месКредиты, цензура

*Kling бесплатный, но лимиты кончаются быстро если генерить много.

Честно: по картинке LTX Video уступает обоим. Движения чуть менее плавные, детализация немного слабее. Это не катастрофа — для многих задач 7/10 хватает. Но ждать, что open source сразу догонит коммерческие модели с огромными бюджетами — не стоит.

Когда LTX Video — правильный выбор

Есть задачи, где open source выигрывает вне зависимости от качества:

Batch-генерация. Нужно 500 видео для e-commerce? На Kling кредиты кончатся через час. LTX Video локально — гони сколько угодно, ограничение только GPU.

Автоматизация. Встроить в Python-скрипт, отправлять через Telegram-бота, генерировать по расписанию — это реально через API diffusers или через Replicate API.

Без цензуры. Коммерческие сервисы фильтруют контент. Open source — нет. Для легального взрослого контента, для хоррора, для политической сатиры — сам решаешь.

Fine-tuning. Хочешь обучить модель на своих видео? Apache 2.0 это разрешает. Можно обучить LTX Video на стиле конкретного режиссёра или на своих персонажах.

Без зависимости от сервиса. RunwayML могут закрыть аккаунт, поднять цены, добавить ограничения. Локальная модель — твоя навсегда.

Если просто хочешь сделать несколько красивых видео без заморочек — Kling AI или RunwayML проще и качественнее. LTX Video для тех, кому нужен контроль.

FAQ

LTX Video полностью бесплатный?

Модель и код — да, Apache 2.0. Если запускаешь локально — расходов ноль кроме электричества. Replicate берёт деньги за аренду GPU (~$0.01-0.05 за генерацию). ComfyUI локально — бесплатно, но нужен GPU.

Какой GPU нужен для запуска LTX Video локально?

Минимум: NVIDIA с 6GB VRAM (RTX 3060, RTX 2060 Super). Для комфортной работы с разрешением 704×480 — от 8-10GB VRAM (RTX 3080, RTX 4070). Для генерации 1280×704 — 16GB+. AMD и Apple Silicon пока нестабильны, официально поддерживается NVIDIA.

LTX Video vs Wan 2.1 — что лучше?

Wan 2.1 (от Alibaba) чуть выигрывает по качеству, особенно на детализированных сценах. Но он тяжелее — 14B параметров, нужно минимум 16GB VRAM. LTX Video быстрее и запускается на более доступном железе. Для большинства задач разница незначительна, выбирай по железу.

Можно ли использовать LTX Video коммерчески?

Да. Apache 2.0 разрешает коммерческое использование, форк, встраивание в продукты. Единственное ограничение — сохранять лицензию и указывать авторов при распространении самой модели.

LTX Video через Replicate — это безопасно?

Replicate — легитимная платформа, работает с 2021 года. Твой промпт и сгенерированные видео хранятся на их серверах (политика приватности на сайте). Если нужна полная приватность — только локальный запуск.


Полная картина по AI-инструментам для видео — в гайде по нейросетям для видеогенерации. Если хочешь сравнить с другими open source вариантами — посмотри обзор альтернатив Sora.

Для тех, кто параллельно интересуется локальными LLM: принцип тот же, что в Ollama и LM Studio — скачиваешь веса, запускаешь локально, никуда не платишь.