Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Стартап Runway, занимающийся разработкой искусственного интеллекта, объявил о создании новой модели для генерации видео, способной создавать согласованные сцены и персонажей в нескольких кадрах. Как известно, видео, сгенерированные искусственным интеллектом, часто испытывают трудности с поддержанием связного повествования, однако компания Runway утверждает в социальной сети X, что новая модель Gen-4 предоставит пользователям больше "непрерывности и контроля" при создании историй.
Новая модель видеосинтеза Gen-4, которая сейчас разворачивается для платных и корпоративных пользователей, позволяет генерировать персонажей и объекты в разных кадрах, используя одно референсное изображение. Пользователям необходимо описать желаемую композицию, после чего модель сгенерирует согласованные результаты с разных углов. В качестве примера стартап опубликовал видео, на котором женщина сохраняет свой внешний вид в различных кадрах и контекстах при разных условиях освещения.
Этот релиз последовал менее чем через год после того, как Runway представила видеогенератор Gen-3 Alpha. Эта модель увеличила продолжительность видео, которые могли создавать пользователи, но также вызвала споры, поскольку, как сообщается, она была обучена на тысячах видеороликов, полученных путем сбора данных с YouTube, и на пиратских фильмах.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...