Компания ByteDance выпустила Seedance 2.0 — обновлённую модель для генерации видео. Это уже не просто text-to-video: нейросеть умеет собирать ролик из нескольких сцен, делать осмысленные склейки, добавлять звук и сохранять визуальную консистентность от кадра к кадру.
Модель уже доступна на китайской платформе Jimeng AI (Dreamina) и в видеоредакторе Jianying (аналог CapCut). Доступ открыт для платных подписчиков и части тестировщиков. Глобальный релиз в CapCut ожидается позже. Подробности в материале Postium.
Читайте также: Промты для генерации видео в Grok
Что нового в Seedance 2.0
Seedance 2.0 — мультимодальная видеомодель на новой архитектуре с оптимизацией RayFlow, которая ускоряет рендеринг примерно на 30%. В отличие от большинства конкурентов, генерирующих «немое» видео, модель сразу работает с визуалом и звуком как с единой сценой.
Нейросеть обеспечивает нативный липсинк — синхронизацию губ с речью на фонемном уровне — и генерирует фоновый шум, соответствующий физике объектов в кадре. Видео и аудио создаются не по отдельности, а как связанный результат.
Ещё один важный апдейт — переход от генерации случайных кадров к управляемой «режиссуре». Seedance 2.0 поддерживает загрузку до 12 референсов: до 9 изображений, 3 видео и 3 аудио.
Пользователь может загрузить фото актёра, пример локации и нужный голос и получить серию разных сцен с сохранением идентичности персонажа, его одежды и окружения. Максимальное разрешение выросло до нативного 2K.
Как пользоваться
Seedance 2.0 интегрирована в экосистему CapCut и платформу Dreamina. Пользователь описывает сцену текстом, добавляет референсы и при необходимости загружает звуковую дорожку — модель синхронизирует под неё ритм и переходы.
Также ожидается появление модели на сторонних агрегаторах и через внешние коннекторы (fal.ai, wavespeed).
Почему это важно? ByteDance уходит от идеи «одного красивого кадра» к генерации готового видео. Возможность собирать сцены, удерживать персонажей и контролировать стиль делает Seedance 2.0 инструментом для рекламных нарезок и клипов — там, где важно цельное видео, а не набор отдельных шотов.
Это укладывается в общий тренд рынка: ИИ-видео движется в сторону мультимодальности и привязки к референсам, когда модели не просто генерируют видео с нуля, а удерживают стиль, персонажей и логику сцен.
Плюс, Seedance 2.0 становится прямым конкурентом Kling Video 3.0 и тоже позволяет собирать сцены покадрово, как режиссёр.
Итог: Seedance 2.0 — шаг в сторону генерации готовых видеосцен, где важны консистентность, звук и предсказуемый результат.
Запись Вышла Seedance 2.0 — ИИ для генерации видео со звуком и «монтажом» впервые появилась Postium.