В этом видео я подробно расскажу, как мы делаем футажи, визуальные вставки и анимации в наших роликах: какие нейросети использовать, чем они отличаются и как добиться нужного эффекта. Мы пройдём весь процесс по шагам — от идеи до готового видео.
🌐 Ссылка на ИИ-агента: http://deepagent.abacus.ai
🌐 И сам сервис - http://chatllm.abacus.ai
🚀Пройти мои обучения по AI: https://t.me/web3nity_team_bot
🚀 Мой Telegram чат: https://t.me/+dPw_AwlCXA05Mzcy
#ИИ #AI #нейросети
Вот эти все фотажи и видеоматериалы, которые вы видите в моих видео, они сгенерированы с помощью AI. И в этом видео я вас научу, как это делать самостоятельно, чтобы вы, как я, тоже экономили уйму времени и нервов. Потому что сейчас даже такие большие компании, как Open AI, XAI, если вы заметите, в своих презентациях используют контент сгенерированной AI. Поэтому это видео будет полезно абсолютно всем, кто делает презентации, курсы, видео, мультфильмы, рилсы, в общем, любой визуальный проект. С AI всё стало реально в разы проще и быстрее. Так почему бы этому не научиться? И, кстати, я ещё в этом видео покажу, какую нейросеть для какой задачи лучше использовать, потому что по опыту они действительно хороши в разном. Например, надо банана отлично подходит, если нужно что-то отредактировать в кадре, заменить деталь. Для создания целого кадра, где важно освещение, атмосфера, другая нейросеть. Чтобы анимировать кадр предметов третье. Поэтому для таких задач я обычно использую агрегаторы, как чат lm, потому что там собраны все нейросети в одном месте. Но вы можете это делать в любой привычной для вас нейросети. Поехали. Первое, что вообще нужно сделать перед генерацией футажей - это понять, какие вообще видеоотрезки нам нужны. Видео, которые набирают миллионы просмотров, всегда отличаются тем, что футажи там работают на усиление смысла. То есть это не просто красивая картинка ради того, чтобы разбавить кадр. Футаж он нужен, чтобы усилить сказанное, передать больше, чем дают только слова, погрузить зрителя в историю. Поэтому здесь мы не можем просто взять весь сценарий, разбить его на части, закинуть в генератор, как мы это делали, например, с книгой, когда, помните, брали фразу за фразой, загоняли в мирни, и я получала картинки. Поэтому тут я либо режиссёр монтажа, проходится по всему сценарию и отмечает места, которые он считает лучше усилить с помощью визуального образа. Например, у нас такая фраза в последнем видео была: "Вспомните первое появление компьютеров". Кстати, я показываю вам реальную работу над прошлым видео. То есть в этом видео я покажу всё, что я делала, все промыты, которые я писала, чтобы сгенерировать футажи для прошлого видео. Не просто абстрактно. Так вот, там есть такая фраза. Вспомните первое появление компьютеров массы. Её очень хорошо бы осветить, чтобы передать этот смысл, передать эту атмосферу. Поэтому помечаем её и вот так вот со всем сценарием. Теперь задача подумать, а что именно там нужно показать, чтобы передать смысл сказанного? Например, с этой же фразой про компьютеры я не могу просто взять и поставить компьютер. Это не передаст должной эмоции. Но тут может возникать вопрос: а что, если я не знаю, что именно мне там изобразить? В таком случае мы обычно идём в интернет, собираем референсы, вдохновляемся. Например, я пошла в интернет и пишу: компьютеры девяностых, реклама. То есть любые ключевые слова по нашей теме. И нам понравилась вот такая вот старая реклама. На столе стоит коробка и руки её поднимают, под ней оказывается персональный компьютер. Мне кажется, это идеальный референс, который прямо полностью передаёт сказанное. Будем повторять именно вот это, только с и и. Поэтому мы сохраняем этот референс, делаем скриншоты и то же самое проделываем по всему нашему сценарию с другими кусочками. То есть находим кусочек, прописываем, что именно мы хотим видеть в этом кусочке, находим референс, сохраняем его. Всё в одном документе. После того, как нужные референсы у нас определены, у нас есть два пути. Первый путь - это если у вас уже есть чёткое представление кадра, какие детали должны быть на месте, какой ракурс, какой взгляд. Тогда в этом случае мы будем генерировать картинку и потом уже её анимировать. Второй путь - это если у вас нет конкретного представления, а есть пока только референс, то есть идея и атмосфера, то тогда лучше будет доверить работу самому видеогенератору. То есть мы не будем загружать референс, не будем фиксировать первый кадр, а будем оставлять генератору больше свободы или ещё может быть комбинация. В видео я покажу все варианты, потому что обычно использую все варианты. Так вот, в случае с моим первым необходимым фотажом проявление компьютеров, у меня было чёткое представление, что я хочу показать. Первый футаж - это стол. На нём коробка, руки её поднимают, под ней компьютер. Второй футаж - тот же самый стол, но только теперь за него садится персонаж и начинает работать. Для монтажа было важно, чтобы эта сцена, она была цельной, то есть не разные люди в разных местах. Поэтому нужно здесь подготовить статичные кадры, шоты и потом уже их анимировать. Ну то есть в ситуациях, где вам нужно получить максимально точные футажи, не стоит генерировать видео, потому что практика показывает, добиться двух абсолютно идентичных объектов фона освещения в разных кусках видео почти невозможно. И вот здесь мы переходим к следующему шагу, соответственно, составлению промтов для генерации этих шотов, для генерации картинок. Открываю чат lent и выбираю режим роутер. Это
когда ты доверяешь не досети, чтобы она подобрала лучшую модель для твоего запроса. Пишу промт. Мне нужно написать текстовые промты для генерации картинок, которые я потом буду анимировать. В общем, промт на экране. Можете сделать скриншот, потом его использовать, если вам понадобится. Отправляю. и роутер выбрал GPT5, где в ответ мы получили такие три подробных детализированных промта. Именно на них мы будем опираться дальше. Соответственно, следующий шаг - это генерация самих кадров, картинок. Работаем в том же чате, где у нас есть промты. Просто теперь нажимаю кнопочку image и выбираем уже модель для генерации картинок. Я выбрала нанобана первый раз такую нашумевшую неросеть от Google, которую многие называют заменой фотошопа. Вставляю наш первый промт и выбираю функцию монифицировать промт. Она позволяет писать короткие запросы даже на русском, а chutat уже будет сам адаптировать их под конкретную ней нейросеть. Я почти всегда её использую. Результат реально заметно лучше становится. Но картинка сама получилась не очень в нани банане, поэтому я попробовала снова. Попробовала снова, мне опять не понравилось. Попробовала доработать промт. И здесь вот как раз пригодились скриншоты из референсов. То есть я загружаю их прямо в чат и делаю такой запрос, как поправь промты так, чтобы расположение предметов, свет и кадры выглядел похожи на этих картинках. Промт стал детальней, но в Нане Банане всё равно ничего не получилось. Что делать в такой ситуации? Я вам сейчас специально показываю абсолютно весь мой процесс, чтобы вы понимали, что всё не так просто, потому что видео обычно у блогерах показывается, что вообще всё так просто, идеально и получается с первого раза, но не так. В общем, дальше я попробовала выбрать Флакс Ультра. Получилось интересно, всё равно не то. И в итоге у меня получилось в Мижорни версия 7. Правда, немножечко с переписанным промтом. Вот промт. Поэтому мижорни для генерации картинок прямо с нуля или похожих на референс подходят вообще отлично. Теперь после того, как начальный кадр готов, то есть стоит коробка, мне нужен финальный кадр этого видео, когда уже там стоит компьютер. То есть здесь нужно сделать замену. И вот для замены отлично подошёл нанобана. Просто я туда загрузила фото, попросила его заменить коробку на этом столе на персональный компьютер из девяностых. Параллельно, кстати, попробовала ещё один вариант, то есть прописала пробут более подробный, вот такой. И результат уже понравился. Видеогенератор должен с этим справиться. Поэтому я для себя пометила, что нано банана он отлично справляется с задачей, где мне нужно заменить один объект на второй, при этом не меняя всего остального кадра. Итак, после того, как у нас готов первый и последний кадр для первого фотажа, нужно собрать их видео. Для этого я сперва попробую не рассеть Лума, потому что у неё есть как раз такая функция, то есть она может классно связать первый и финальный кадр в такое в полноценное видео. Захожу в videog Gen. Здесь, кстати, доступно очень много видеогенераторов. Мы будем пробовать их все. Я заодно вам покажу результаты этих генераторов. Вставляем оба кадра. Тут я добавила вот этот промт, но результат по факту получился не очень. То есть такое бывает. Иногда вот этот метод работает отлично. Иногда как в этот раз. Мы пойдём немножечко по-другому пути и попробуем сразу из первого кадра сделать видео. И для начала я попробовала мой любимый генератор Клинк. Я его очень часто использую, он дорогой, но вот такие вот видео классные, как, например, клетки для позапрошлого видео он мне сделал, но в этот раз он справился не очень. Я попробовала дальше HL, китайская нейросеть. Похожий результат. И классный результат у меня получился именно в новой, кстати, достаточно новой нейросетке китайской Sedans Pro. Сцена получилась очень органичная, то есть стоит коробка, протягиваются руки, кадр стабилен, коробка поднимается, видны тени даже, и мы видим компьютер. Поэтому берём это для первого футажа. И теперь нужно сделать так, чтобы за этот же компьютер сел человек. Для этого я сделала скриншот последнего кадра этого видео. Вот такой вот, где коробка уже убрана, на столе стоит компьютер, а всё остальное осталось без изменей. Немножечко подрезала края, и это будет таким первым кадром для второго видео. И идём экспериментировать с разными нейросетями. Вот что у меня получилось. КLн на этот раз сделал терпимо, но всё равно далеко от идеала. One2 оказался лучше, но здесь девушка, как видите, села так, что полностью перекрыла компьютер спиной, его не видно. Runwayй. Он сделал эффект лёгкого отъезда камеры, но девушка так и не садилась до конца. Runwayй, я не знаю. Мне, кстати, Rwayй меньше всего нравится. Veo 3 нашумевшая модель. И она, кстати, очень дорогая, поэтому я её редко использую. Тоже справилась с нехорошо. И в итоге Cons снова показал себя лучше всех. Кстати, честно говоря, эта модель для меня стала настоящим открытием. Поэтому тестируем, пользуемся китайской неросеть SIDS Pro. Если вы хотите, чтобы я сняла обзор на китайский неросети, напишите в комментариях то, что Китай - это моя вторая родина. Поэтому я могу спокойно разобраться в китайских неросетях и показать вам те, которые работают. В
общем, в итоге у меня два футажа с совпадающими конечными начальными кадрами. и их сделал Sens Pro. По пути, где я загружала ему первую картинку, просила его дальше анимировать это видео. Потом я останавливала, делала скриншот конца видео первого, также загружала его в Sans Pro, и он мне генерировал продолжение этой истории. Это готово. Можно отдавать в монтаж. Я специально для вас показываю такой вот подробный путь, чтобы было видно, что под разные задачи используются разные нейросети. То есть это всегда путь проб и ошибок, но это всё равно значительно экономит время. О'кей, покажу вам второй путь - это когда мы не будем генерировать картинки, мы сразу же пойдём по пути, где нужно сгенерировать видео. Потому что в сценарии был такой блок про бухгалтера. Там была такая мысль, что раньше бухгалтера делали всё вручную, потом в дальнейшем они сели за компьютеры. И в этом случае я примерно понимала, как я хочу видеть эту сцену. Например, бухгалтер будет сидеть такой вот весь в бумагах в старых, считать вручную всё. А второй кадр будет, где она сидит за современным компьютером. Но я не знала, как именно я хочу это изобразить, прямо супер детально, несмотря даже на референсы. Вот в таких вот случаях, как я уже говорил в начале, лучше довериться AI и попросить его сгенерировать видео с нуля. И вот какие результаты Клинга Veo Seedens Pro получились. На самом-то деле, здесь сложно сказать, какой вариант получился лучше, поэтому выберите вы. Но я остановилась на сцене с светлым офисом позади. Дальше я иду в Нанобана и прошу теперь посадить именно этого же персонажа, только за современный компьютер. И в итоге получилась та же женщина, но уже в другой обстановке. И в Sнs Pro я оживила этот кадр. По такой же аналогии я шла и генерировала все остальные кадры для моего видео. Кстати, я очень рекомендую посмотреть последнее видео. Во-первых, чтобы вы увидели все эти кадры в нём, а во-вторых, прошлое видео. Я считаю искренне, что это одно из самых важных и полезных когда-либо видео, снятых на моём канале, да и не только на моём канале Pro AI. Поэтому, если вам хоть чуть-чуть интересен, пожалуйста, его посмотрите. Это будет актуально абсолютно всем моим зрителям моего канала. Что я ещё хотела сказать по поводу сегодняшнего видео? Конечно же, если у вас есть какая-то одна любимая нейросеть, вы ей постоянно пользуетесь, вы можете использовать её. Но по моему опыту, если нам нужны конкретные футажи для видео, для презентации, для курса одной нейросетью не справится. Ну либо вы будете очень сильно много нервничать. Поэтому в таких ситуациях, конечно же, лучше выбирать вот такие вот агрегаторы типа чаl, где собрано абсолютно всё. Помимо ещё и генерации видео, ещё и генерация картинок, ещё и генерация текста и ещё игт, если вам нужно что-то поискать. Поэтому что у нас по тарифу чатма? Тариф, где у нас входит и генерация видео, и генерация картинок, и депагенты, и также общение с любыми другими нейросетями стоит 20 долларов в месяц. И за 20 долларов нам даётся 25. 000 кредитов. Кредит - это такая внутренняя валюта сервиса, и их примерно будет хватать на 500 картинок или 40 коротких видео или 25 сложных запросов в Deepгента. Что важно сказать, что важно понимать в этих сервисах? Что нельзя точно просчитать, да, какая-то конкретной картиночки, сколько в итоге выйдет. Почему? Потому что разработчики, по сути, агрегируют все эти сервисы к себе, да? И каждый из этих сервисов, он стоит по-разному. Например, клин - это довольно дорогая модель для генерации видео. Естественно, она будет больше пожирать кредитов, потому что разработчики за неё платят больше, чем за все остальные. Но всё равно это по факту получается выгоднее, нежели использовать эти же нейросети отдельно. Я надеюсь, что это видео стало для вас полезным, потому что я, по сути дела, реально открыла вам вообще внутреннюю кухню, как мы делаем видео. Такое обычно не показывают. Вот мне захотелось. Это частый запрос был по поводу монтажа, поэтому какую-то часть я решила показать. Естественно, монтаж с помощью AI не делается, ребят. Это всё сказки. Монтажи делаются с помощью монтажёра, человека, которым имеет опыт, но который использует вот нейросети в разных своих задачках. Пожалуйста, поддержите канал лайком и комментарием. Это не сложно, но это очень сильно поддерживает нас. Мы видим отдачу и хочется дальше снимать видео. А так, кстати, напишите, я уже спрашивал вопрос середине, какое видео вы хотите, чтобы я сняла. Возможно, если вам интересно китайские неросети, напишите в комментариях. Я сниму про китайские неросети. y