Между алгоритмом и замыслом: два взгляда на создание видео-арта с помощью нейросетей

Интервью с Евгением Шибе (режиссер и автор) и Кириллом Дружининым (фотограф, видеограф, контентмейкер)

Знаете это чувство, когда скроллишь ленту и вдруг — бац! — видео, от которого мозг делает сальто? Вроде понимаешь, что это не реальность, но глаза отказываются верить. Космический корабль взрывается так, будто Кристофер Нолан лично стоял за камерой. Девушка в скафандре идет по Марсу, и ты готов поклясться, что это кадры из нового блокбастера за 200 миллионов долларов. А потом узнаешь — это сделал какой-то парень из Подмосковья на своем ноутбуке за чашкой остывшего кофе.

Мы стоим на пороге эпохи, когда создать «Аватара» можно будет одной кнопкой. Но парадокс в том, что чем доступнее становятся инструменты, тем ценнее становится человеческое «зачем». 

Евгений Шибе создает мультфильмы, сражаясь с нейросетями за каждый кадр. Его «Не стреляй» — результат полугодовой битвы с алгоритмами, которые упорно превращают ноги персонажей в колеса. Кирилл Дружинин превращает опечатки в промтах в художественные находки, которые заказчики ценят больше оригинальных идей.

Оба работают в точке столкновения человеческого замысла и машинной логики. Один тратит 50 попыток, чтобы объяснить нейросети простое движение. Другой методично разбирает референсы на элементы, как часовщик механизм. Их инструменты устаревают быстрее, чем заканчивается проект. Но именно эти люди создают те самые видео, от которых невозможно оторвать взгляд в ленте.

Опишите свой пайплайн — от идеи до финального рендера

Евгений Шибе: В начале стоит сказать, что развитие нейросетей идет гигантскими темпами. Порой инструменты, с которыми я приходил к экватору проекта, уже устаревают. На мультфильме «Остановись» было отрендерено процеантов 40, когда Hailuoai выкатила обновление по референсу — загружаешь картинку и она анимируется. Я потратил полгода на насилие над своим ПК, как отпала сама необходимость.

Еще недавно процесс был такой: сначала создаем фоны в опенсурсной Krita AI, обильно пользуемся фотошопом. Затем создаем персонажей, порой в 3D (например в Trellis), чтобы можно было их крутить и получить разные ракурсы. Интегрируем их вместе. Следом грузим картинку в нейронку. И тут начинаются танцы с бубном — необходимо объяснить нейросети, что на картинке и что конкретно должно двигаться. Уходят 10 попыток, 30, 50. А это куча времени.

Кирилл Дружинин: Всё начинается с текстовой задачи и поиска референсов. Стараюсь разобрать примеры на элементы: стилистику, эффекты, настроение, цветовую схему. Далее приступаю к генерации ключевых кадров. Для этого использую DeepSeek — очень помогает составлять промты.

Раньше часто делал наброски на локальной Stable Diffusion, но в последнее время сразу генерирую онлайн. Создаю всё на сайте Freepik — у них есть целый раздел для работы с нейросетями и доступ к множеству моделей. Зачастую кадры допиливаю в фотошопе. После начинаю анимировать, выверяю промты с DeepSeek. Готовые короткие видеоряды монтирую в ролики — добавляю текст, звук, эффекты.

Как балансируете между случайностью AI и художественным замыслом?

Евгений Шибе: Например, персонаж идет по дороге. ИИ решает, что в определенный момент он должен подпрыгнуть. Или улететь в небо. Или вместо ноги вырастает колесо и он уезжает. Что это? Зачем? Нейронка так решила. И часто вместо творческого импульса ты сидишь и бьешься с ней за какой-то удобоваримый результат.

Основная проблема — сделать персонажа одинаковым от начала до конца. ИИ может сделать шикарный кадр с фантастическим окружением, потрясающим светом и красивой девушкой в скафандре. Но стоит начать менять ракурсы, планы — и все посыпется. На скафандре меняются детали, лицо чуть-чуть другое, глаза уже зеленые, подбородок иной. Хотя MidJourney сделала прорыв с референсом по фото — теперь нейронка прикладывает нужное лицо всегда, независимо от поворота головы и освещения.

Кирилл Дружинин: Со временем пришло понимание, где стоит поднажать, чтобы нейронка максимально следовала инструкциям, а где можно дать пространство для манёвра. Все важные аспекты закладываются в промт — это вообще отдельное искусство.

Бывало, промахнувшись мимо цифры в описании фокусного расстояния, получался очень неожиданный результат, который заходил заказчику куда больше изначальных примеров. Мне вообще нравится, как порой нейронки интерпретируют опечатки. Никогда не знаешь, где это потом может пригодиться.

Кто автор — вы или алгоритм? Как решаете вопросы с правами?

Евгений Шибе: Я пишу сюжеты сам. Конечно, GPT может накидать миллионы идей, но лакировать их я предпочитаю вручную. Это нужно мне даже для осознания того, что я автор, а не инструмент.

Вопросы с правами решаются просто. Если ты покупаешь профильную подписку (об этом указано на сайте), то все права твои. Но я никогда не беру в работу прям из печки нейросети. Всегда дорисовываю, шлифую напильником. Финальный результат — это мозаика. А у мозаики автор я.

Кирилл Дружинин: Ни разу не было подобных вопросов. Часто я накидываю примеры артов в фотошопе и докручиваю кадр в нейронке, получая более уникальный результат. Да и сервис платный — раз я оплатил эту услугу, имею полное право распоряжаться полученным результатом, в том числе в коммерческих целях.

Сколько стоит создание минуты видео-арта? Как монетизируете?

Евгений Шибе: Оказалось, что для получения отличного результата не помешали бы деньги. Ролик с бюджетом 10$ и 1000$ — это разные ролики, хотя инструменты одинаковы. Например, генерация 30 центов. Если ты ограничен в средствах, то придется выбирать из готовых 10 результатов. А если деньги не проблема, можно генерить хоть вечность.

Еще мы живем в России — это периферия нейроразработок. Если мне нужен киношный облет вокруг взрыва космического корабля, я выберу Hugsfield. Но тут нужен выход на зарубежные сайты. А у нас санкции. Как оплатить? Сейчас отличная нейронка Veo от Google — в ней не нужно предварительной работы, просто пишешь промт и получаешь результат. Но это недоступно в России.

Как монетизировать? Думаю, как и раньше — работать на заказчика. А ИИ использовать как один из качественных инструментов.

Кирилл Дружинин: Я работаю по подписке. Все зависит от сложности и моделей, которые использую. А также требуется ли дополнительная доработка и монтаж. Если очень грубо, то одна минута стартует примерно от 3500₽. Пока в основном работаю с постоянными заказчиками, но поглядываю в сторону онлайн бирж.

Что произойдет с видео-артом через 2 года?

Евгений Шибе: В будущем произойдет что-то отличное. Качество вырастет — затраты снизятся. Генерировать кино одной кнопкой каждый сможет уже сейчас. Но появилось ли больше историй, которые хотелось бы смотреть? YouTube завален нейроиспражнениями без смысла, фабулы.

Я считаю, нет никакой ниши, если ты хочешь рассказывать свои истории. Короткие ролики с нейрокотиками были и будут всегда. Мне думается, мы уже на пороге внедрения картинки прямо в мозг, а ИИ — это молоток для этого. Преуспеют люди, которые увлекут нас! Гляньте на тренды — сначала котики, затем новостные сюжеты, блоги бабушек. Все смотрится с интересом несмотря на фейковость. Потому что где-то живой человек придумал идею, которая сработала.

Кирилл Дружинин: Алфавит, речь и стихосложение существуют уже гораздо дольше. Первым владеет большая часть населения планеты. Вторым — миллионы людей. Но кто-то пишет слово из трёх букв на заборе, а кто-то создает стихи и оперы, остающиеся в веках.

Это лишь инструмент, всегда будут мастера разного уровня, и на каждого найдется свой заказчик. Может, со временем навык снимать и монтировать видео станет чем-то вроде столярного мастерства. И видео, снятые живыми людьми, будут цениться выше, как дорогая мебель именитого мастера. А может, это лишь первые шаги на пути к созданию контента абсолютно нового порядка. Уверен, так или иначе, но за этим будет очень интересно наблюдать.

Работы Шибе и Дружинина — доказательство простой истины: доступность инструментов не отменяет необходимость в мастерстве. YouTube переполнен «нейроиспражнениями» без смысла и фабулы, но мультфильмы Евгения рассказывают истории. Ролики Кирилла стоят от 3500₽ за минуту, потому что за ними стоит понимание, где нажать на алгоритм, а где дать ему свободу.

Через два года генерировать кино сможет каждый одной кнопкой. Veo от Google уже сейчас создает видео по текстовому описанию. Но пока нейросети решают, что персонажу пора улететь в небо посреди дороги, кто-то должен объяснять им человеческую логику. Этим и занимаются современные видео-художники — переводят с человеческого на машинный и обратно.

В этом году на фестивале-конкурсе "Море Кино" организаторы запускают новую номинацию, связанную с созданием видеоконтента с помощью нейросетей. Если вы тоже занимаетесь созданием видео с помощью нейросетей, предлагаем вам заполнить Google форму и мы пригласим вас принять участие в фестивале-конкурсе.
 

Материал подготовлен редакцией портала "Кино Приморья" www.kinoprim.ru
Текст: Марина Доценко
Фото: Евгений Шибе и Кирилл Дружинин 

Фотоотчет

 

Возрастная категория 18+



Копирование информации с сайта допускается с указанием действующей ссылки на него!
На данном сайте распространяется информация сетевого издания "Кино Приморья" - свидетельство о регистрации СМИ ЭЛ № ФС 77 - 80389, выдано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) 17 февраля 2021 г. Адрес редакции: 690091, Приморский край, г. Владивосток, ул. Семеновская, д. 8Б, кв. 19. Учредитель: И.Ю. Федоров .Тел.: +7 (423) 2666-414. Электронный адрес: admin@kinoprim.ru . Главный редактор: М.А. Скорлякова.
E-mail: admin@kinoprim.ru

Читайте нас в социальных сетях:

VK  twitter  telegramm  ok  ю туб

 

Яндекс.Метрика