⚡️ SYNTX — все нейросети в одном месте!
▫️ 90+ ИИ-инструментов, без VPN и зарубежных карт
▫️ VEO 3.1, Nano Banana PRO, SeeDream 4.5, Kling Motion Control и другие топовые модели
▫️ Генерация текста, изображений, видео и музыки с передовыми нейросетями
🖥 Ссылка на сайт SYNTX AI → https://syntx.ai/
🤖 Ссылка на сервис (Телеграм Бот) → https://bit.ly/syntxairu
🚀 Ссылка на блог SYNTX FAMILY → https://bit.ly/SyntxFamily
— самое крупное AI-комьюнити в России (285 000+ участников). Ежедневные гайды, разборы нейросетей, мастер-классы и живое общение с единомышленниками.
💥 Ссылка на Instagram SYNTX → https://www.instagram.com/syntx_ai/
Никогда не покупали подписку?
Введите промокод «TRY15» и получите –15% скидку 🎉
(Промокод действует 24 часа после активации!)
🎬 Сегодня разбираем самые частые ошибки при работе с нейросетями в SYNTX и объясняем, почему генерации могут не запускаться, зависать или давать неожиданный результат.
Поговорим о том, как промпты и референсы влияют на итог генерации, и почему ограничения конкретных моделей так важно учитывать. Разберём реальные примеры из Nano Banana, SeeDream, Veo, Sora и Kling Motion Control, а также охватим тему фильтров и цензуры. Далее покажу, как работать с нейросетями так, чтобы результат был стабильным и предсказуемым.
А в финале — итоги прошлого конкурса и новый розыгрыш 3 VIP-подписок SYNTX.
#SYNTX #ошибкиИИ #нейросети #ИИгенерация #промпты #NanoBanana #Kling #Sora #Veo
Ошибки в неверстях - это нормально. И дело не в самом сервисе, а в том, что каждая модель работает по своим правилам и ограничениям. Меня зовут Виктор, и в этом видео я разберу, почему генерация может не запускаться, выдавать ошибки или демонстрировать странный результат в самых популярных неростях сегодня. Покажу самые частые ошибки и объясню, как избежать их и сделать так, чтобы каждая модель в Синтакс выдавала стабильный и предсказуемый результат. Обязательно подписывайтесь на наш канал. А в конце, как всегда, итоги розыгрыша и новый конкурс на триве подписки в Synнкс. Поехали. И разбирать ошибки мы будем, как всегда, в нашей экосистеме Synx AI. И для тех, кто не знает, это агрегатор, объединяющий в себе все самые лучшие и топовые нейросети в одном месте по одной подписке. И помимо веб-версии у нас есть также Telegramбот. Если хотите попробовать и его, то сканируйте этот QR-код на экране и начинайте прямо сейчас. Если говорить в целом, нейросети работают не так, как мы привыкли думать. У них нет интуиции и нет догадок. Для модели существует только входные данные: текст, изображения или видео, которое они получают в виде промта или референс. Как только в этих данных появляется что-то лишнее, например, посторонний объект в референсе, модель начинает путаться. Если видео состоит из обрывков, как это часто бывает при работе с Cllink Motion Control, теряется непрерывность движения. Ну а если прот перегружен и противоречит сам себе, генерация либо ломается, либо начинается хаос. И важно понимать, в этот момент сервис не ломается. Ошибка возникает на этапе интерпретации запроса моделью, а не на этапе генерации. Отдельный момент - цензура и фильтры безопасности. Частенько мы пишем запрос, не задумываясь, ээ, что в формулировке может быть что-то запрещённое. При этом у разных невертей правила сильно отличаются. То, что спокойно проходит в одной модели, в другой может сразу блокироваться. В результате генерация просто не запускается и выдаёт ошибку. Поэтому пройдёмся по фильтрам и ограничениям и посмотрим, какие формулировки и темы чаще всего попадают под цензуру. фильтры и цензуры - это действительно а важный момент, и многие пользователи получают отказы от нейросетей, а в частности от S 2 и Google Veo и не понимают, что же они такого нарушили, потому что, например, промт, который проходит в клинге, не проходит в Ссоро, да, казалось бы. И вот один из таких примеров, где мы просим создать реалистичное видео, на котором молодая девушка сидит, а, на пляже в купальнике. Казалось бы, ничего такого, но ссора рассчитывает и рассматривает этот момент как а сексуальный контент, и вы сразу же получите отказ от нейросети и не получите своё видео. Следующий момент, когда мы можем получить отказ от нейросети - это, а, не совсем корректный и непонятный промт, где у нас есть, а, противоположности, да, в одном буквально предложении, как, например, окружающая среда не должна явно напоминать город. Ну, и не должна выглядеть как природа, то есть, ну, ни туда, ни сюда. И для модели это не совсем понятно. Не должно быть ярких архитектурных элементов, но и пространство не должно быть пустым. Опять же, у нас вроде как надо что-то поставить, но пустым не должно быть. Камера должна выглядеть естественно, не как в кино и никак в документальном фильме. Ну и последняя сцена не должна выглядеть постановочной, но и не слишком непринуждённой. Тут получается, что модель совсем не понимает, что мы от неё хотим, и просто выдаёт нам ошибку с мыслью, что надо разобраться в промте и только тогда генерировать. Следующий момент - это жестокие сцены с насилием. А особенно где мы говорим про кровь, какие-то драки, убийства и всё в таком духе. А это запрещённая тема для многих нейросетей, в том числе и использования какого-либо оружия и прочего, прочего. А так здесь мы попросили создать сцену, где происходит драка между двумя взрослыми мужчинами, и они агрессивно атакуют друг друга кулаками и руками. Так что у одного из них начинает течь кровь. Дальше, в принципе, можно промт не читать. Мы сразу получаем отказ. А и следующий момент относится как к соре, так и к от Google. Это моменты, где мы просим создать видео с известными личностями. Тоже сразу получаем отказ. Хотя мы в промте писали, что главный герой похож на Леонардо Дикаприо. Буквально похож. Но даже это Нерсе сочела нарушением и прислала нам отказ, как Сосора, так и Google. То есть идентично. Мы отправили один и тот же запрос, там и там получили отказы. Теперь посмотрим на Nно Banна Pro и Сидри. Иногда результат получается не таким, как ожидалось, а в ответ от модели может прийти то же самое изображение, которое использовалось как
референс. Это не ошибка и не игнорирование запроса. У этих моделей есть свои особенности работы с этими самыми изображениями. Разберём, почему так происходит и как с этим работать, чтобы генерации давали ожидаемый результат. Теперь, что касаемо всеми любимых редакторов по типу Nan Banan Pro и Sream 4. 5. Зачастую люди в Synнкс Family, в нашем блоге, да, в нашем сообществе пишут о том, что у них что-то не получилось. А и когда прикладывают референсы, которые они использовали, становится понятно, что нейросеть просто не разобралась, что куда нужно вставлять. И вот один из таких примеров. Просто девушка симпатичная. И мы прикладываем вот такое вот изображение и просим применить платье на девушку. Казалось бы, достаточно понятный промт, что нужно взять это платье и переместить его на эту девушку. И в результате мы получаем вот такое вот изображение. Я думаю, вам становится понятно, почему так происходит. Просто модель не разобралась. И я думаю, теперь вы точно знаете, как не нужно делать. И вот пример, как это работает. Тот же самый промт примени платье на девушку. Но теперь мы используем просто платье на белом фоне, да, на манекене. Он его берёт, спокойно применяет, и никаких вопросов нет. То есть смотрите строго за тем, какие референсы вы используете, и всё будет получаться. Это то, что касалось Сидрим. Теперь что насчёт нанобана. Зачастую люди пишут не совсем понятные промты, да. запросы и просто не понимает, как, допустим, в этом примере. Мы прикладываем изображение комнаты. Всё понятно, сделай красиво. Модель просто присылает ошибку, потому что не понимает, что вы имели в виду. Или, например, стол красиво стоит, и модель просто присылает то же самое изображение, которое было использовано за референс. И, ну, непонятно, что с этим делать. Но модель просто не разобралась. То есть проблема не в каком-то сервисе, не дани в том, что что-то не работает. Просто пишите грамотные, понятные запросы. Теперь, что касаемо референсов, да, в нанобана. Зачастую мы используем какие-то товары или объекты и получаем вроде как красивое изображение, но текст перестал читаться, да, появились какие-то лишние буквы, непонятный текст. как и здесь, в данном примере, который у вас на экране, вроде всё понятно, но были какие-то недоработки с текстом, да? То есть изначально в самом референсе он не совсем читаемый. Если говорить про главный текст, всё понятно, но касаемо нижнего начинаются проблемы. Нерсеть не разберёт, что там написано, и просто попытается сделать то же самое. По итогу мы получаем результат, который, казалось бы, да, вроде неплохой, но снизу м текст точно такой же непонятный, неразборчивый, как это было на референсе. Несмотря на то, что качество стало лучше, да, потому что мы генерироли там в 2к или в 4К, тем не менее м результат нас не устраивает, потому что текст неправильный, а всё потому, что в референсе он нечитаемый. Ещё один пример с референсами, да, мы просим надеть футболку на девушку со второго фото, а девушку, которую мы уже ранее использовали. И вот такая вот, э, картинка майки. То есть невозможно прочитать что-либо с этого изображения. М но тем не менее модель всё равно делает. И из-за того, что она не совсем разобралась, мало того, что она сделала большой размер этих нашивок, да, ну и текст, она вот какой смогла, такой сделала, да. То есть важно понимать, качество референса решает всё. Если у вас на референсе всё будет чётко прописано, всё получится. Если модель не разбирает, что там, то беда. Как и здесь, мы интегрировали вот такую вот прекрасную кружку, где написано: "Любимому мужу и папе", чтобы м наша ягуана, да, или ящер, я уже не сам запутался, используем, кстати, на старой студии. И если вы знаете, почему я поменял цвет а освещению, да, на студии, напишите в этом комментарии, и первый, кто правильно ответит, я подарю VIPподписку от Synx. Но вернёмся к теме. По итогу просто Неросеть попыталась что-то написать любимому мужу, и непонятно, что дальше. Она попытается что-то добавить, да, она перенесёт этот объект. Но вам важно знать, что модель всегда перерисовывает эти изображения. То есть она их не как-то там добавляет, да, или ещё что-либо, а не интегрирует. Она их перерисовывает. Да, она делает это качественно и круто, но тем не менее мы можем получать артефакты в виде неправильного текста, и это будет нормально, если вы используте плохой
референс. Теперь, что касаемо плохого запроса, тоже, э, зачастую так бывает, когда мы пошли в чат GPT, попросили создать промт для генерации красивой картинки нашему товару, прикладываем референс, вставляем промт и получаем не совсем то, что ожидали. Вот изначальное изображение, оно качественное, у него чётко прописан весь текст, модель всё прекрасно поймёт. Но как итог, она создаёт нам вот такое вот изображение. Да, все текста, э, как я и сказал, она прекрасно перенесла, всё супер классно читаемо, но концептуально мы просили о другом. Но дело в том, что в самом промте это написано, да, что это бутылка, а не банка. Это, во-первых, свежевыжатый зелёный сок. А, находящийся в центре кадра. То есть все нюансы тут были написаны о том, что это зелёный сок, да, а никак не банка и вообще, а стеклянная бутылка. Изображение красивое, текста классно перенеслись, но мы получили не то, что хотели, поэтому смотрите внимательно, что мы пишем в промте, что нам выдаёт чат GBT, на что мы копируем у других людей, да, а в сообществе, да, кто с нами делится промтами. Там зачастую прописаны какие-то нюансы, мм, которые не, а, подходят под ваши референсы. От того мы получаем вот такие вот изображения. Если вы всё ещё не пробовали Synнтакс, сейчас самый идеальный момент. А чтобы вы могли сразу перейти к практике и на собственном опыте разобраться в нюансах и ошибках, мы подготовили скидку в 15% по промокоду на экране. Промокод будет активен 24 часа после активации, поэтому не откладывайте и начинайте создавать свои работы. без типичных ошибок прямо сейчас. Теперь, что касаемо всем известной VO от Google. Иногда генерации приходят, ну, такими обрезанными. Результат выглядит не так, как задумался, а в речи появляются странные звуки. И это тоже не баг. У Veo есть свои технические ограничения и особенности работы с видео и речью. Дальше разберёмся, почему это приводит к таким результатам и как учитывать эти особенности, чтобы генерации были стабильными и предсказуемыми. Теперь, что касаемо самого востребованного Veo31 от Google. И я зачастую вижу в сообществе люди пишут о том, что у них что-то не работает, они присылают ошибку и утверждают, что VO перестало работать. Меня это, конечно, расстраивает. И дело заключается в том, что просто неправильный запрос, неправильный промт, перегруженный промт, да, и модель тупо не справляется. Давайте посмотрим один из таких примеров, где мы просим создать сцену с одним персонажем, а который обращается непосредственно к камере. Вроде всё понятно, а мы всё прописали, но посмотрите, а какая большая речь. Модель просто не сможет сделать это в рамках 8 секунд, а Google VO делает 8 секунд. И таким образом мы получим обрезанную речь, а в худшем случае мы получим ошибку. Вот и всё. Следующий момент - это форматирование и использование различных символов. Тоже зачастую вижу такие запросы, где люди ставят вот эти кавычки, скобочки тире, мм, и как бы что-то обозначают для модели. Но, мм, как видите, пример такой тоже не работает, где мы описали вроде персонажа, камеру, диалог, начало, конец и что вообще там должно происходить. мы получаем ошибку. И я настоятельно рекомендую не использовать подобного рода мм моменты в промтах. Да, есть jсомты, о которых мы ранее когда-то разговаривали. Это отдельная часть, там всё построено на таких символах, да, но когда мы говорим о обычных текстовых запросах, так делать не нужно. Далее, что касаемо конфликтующих промтов, это тоже важная часть. Зачастую Veo вероятно вам сгенерирует это видео, но оно будет непонятным, потому что опять же где-то мы скопировали, где-то мы увидели, чат GPT выдал, и мы пошли использовать этот пром, думая, что всё чётко. По итогу мы понимаем, что тут написано слишком много противоречий и непонятных, а, между собой, да, несвязанных моментов, как, например, сцены, снятые на кинокамеру Red с аноморфными объектами. О'кей. Кинематографичная глубина резкости HDR, а, глобальное освещение, объёмное освещение, зернистость плёнки и профессиональная цветокоррекция. Всё это звучит как страшный сон оператора, монтажёра. вместе взятых. И действительно, это не связанные между собой вещи, но тем не менее модель сделает вам это, да, на удивление. Ну, она будет слушаться основной картинке, да, она тут добавила вот это
типа камеру Red 8К. Также зачастую я вижу, что пишут о том, что видео должно быть ровно 10 секунд без артефактов, сбоев и искажений. Ну, по итогу мы получаем видео 8 секунд. А всё потому, что модель генерирует это максимально 8 секунд. А длина видео. Тем не менее вот все эти штуки не работают. Да, качество 8К, шедевр, вдохновляюще, драматично, детализация, эмоции. И вот эта вся история. Не нужно её добавлять, это действительно лишние вещи. Просто пишите красивый промт, а, без вот этих всех штук. и тогда вы будете получать качественные, прикольные, классные видео. Ну и последний пример. Тут тоже а видео всё-таки получилось. Я его сразу включу на фон, пускай играет. И давайте разберёмся, что было не так в этом промте. И история в целом пугающая. А-а, когда я открыл его и посмотрел, мм, первое, что мне бросилось в глаза - это длительность 5 тире6 секунд, формат 4К, соотношение сторон, которые мы пишем. Хотя все эти штуки нам нужно выбирать в мм настройках модели, да? Если мы хотим 9х16, нам нужно выбрать 9х16. Если нам предоставляется выбор длительности, да, видео, то выбираем длительность. мы не можем писать об этом в текстовом запросе, то модель просто не поймёт, что от неё требуется. Дальше идём. Тут описывается какая-то сцена. Тут даже название стеклянный фрукт вспоминает происхождение, что бы это не значило. И тут идёт описание этой всей истории, какой у нас фрукт, а, и всякиевсякие нюансы, действия, прочая история. Мы расписываем по секундам, как что должно происходить. Дальше появляется а цвет и свет, где доминирует тёплый, оранжевый, вечерний свет. Даже указали его код, да, м из фотошопа, я так полагаю. Фиолетовые тени тоже код добавили. А дальше у нас появляется какая-то речь. Это было раньше, и это правильно. И дальше появляется негативный промт. тоже какой-то странный, где очень много всяких лишних моментов. Исходя из этого, модель всё-таки нам присылает результат, да, казалось бы, оранжевый цвет, где-то есть лиловый этот фиолетовый, но это очень сложно. В 90% случаев вы получите отказ и ошибку от модели просто потому, что она не смогла вас понять. Здесь у меня на удивление получилось. Я даже сам а рассчитывал получить ошибку, да, такая была идея, но Модрич всё-таки нарисовал, да, что, казалось бы, просилось в промте. Мм, но тем не менее, когда человек пишет подобный запрос в модель, он рассчитывает это видеть как-то по-своему. Но как итог, приходит видео не совсем такое, как ожидалось. Качества 4К нету, соотношение сторон 9 на16 тоже не сделалось. Ну и длительность тоже была не 4 там 6 секунд, да, а поэтому, пожалуйста, не пишите лишнего в своих промтах. Просто будьте аккуратны, коротко, понятно описывайте, потому что модель не понимает, она не может себе придумать это, и у неё нет чувств, и она не читает ваши мысли. Поэтому, пожалуйста, будьте внимательны и делайте правильно. Вы долго этого ждали, и это случилось. Полноценный курс от Синтакс стартует уже 16 февраля. Ведущие Анастасия Романова и Максим Густарёв, люди, которые не просто говорят про искусственный интеллект, а каждый день работают с неросетями на практике. Мы провели уже два бесплатных мастер-класса, и если вы вдруг их пропустили, запись можно посмотреть на канале или по подсказке сверху на экране. Если вы хотите пойти дальше и системно разобраться в работе с нейросетями, сейчас самый лучший момент присоединиться к курсу. До 16 февраля он доступен по стартовой самой низкой цене. Ну а больше информации вы найдёте по ссылке в описании. Теперь давайте подробнее посмотрим на Clink Motion Control. Иногда при переносе движений персонаж начинает дёргаться, движения выглядят рваными, а руки и позы ведут себя, ну, мягко говоря, странновато. И это не случайность и не сбой сервиса. Сейчас разберёмся, почему так происходит и как избежать подобных ситуаций. Ну и всеми любимый Cllink Motion Control, который действительно круто справляется с переносом движений с референсов на наши изображение. И всё получается круто до тех пор, пока мы не нарушаем правила самой модели. как, например, первый, где в референсе, который мы используем и хотим перенести его движение, а видны
резкие переключения кадров, да, в таком случае мы получим такой же похожий результат, как это было. Но будет не совсем классно, да, будет слишком резко где-то что-то появится лишнее, какие-то артефакты, объекты. Нам может казаться, что всё о'кей, вроде прикольно, но, э, может появиться второй персонаж, допустим, да, это тоже такой вот моментик. Хотя зачастую, если кадр статичный и просто человек как бы двигается, и это нарезка, всё тоже будет неплохо работать. Но когда у нас всё такое динамичное, то может получаться не очень. Поэтому видео вы получите, вероятно, но я не думаю, что вы будете рады результату, когда появится лишняя рука или когда мимика лица будет скрщена. То есть такие моменты мы тоже проходили. И те, кто смотрит наш канал, знает об этом. Следующий момент - это когда в референсе есть два персонажа, и модель тупо не знает, с кого брать это движение, несмотря на то, что они могут двигаться одинаково, да, с какой-то вот совместный танец исполнять, но модель не поймёт и поэтому пришлёт вам ошибку и ничего вам не сгенерирует. Поэтому строго используем референсы, где один объект, а, выполняет какое-то действие. Следующий момент - это использование коллажей. А по сути такая же история, как и с двумя персонажами, не стоит использовать, потому что модель просто не знает, откуда брать а те самые движения. И, как я уже сказал, неважно о том, что они одни и те же, да, потому что данное видео - это пример как раз-таки этой функции, да, демонстрация возможностей Clink Motion Control, где есть оригинальное видео, есть реклама и есть и Аватар. И казалось бы, всё же вроде о'кей, давайте, почему не делаем? Но модель представляет ошибку и говорит, что это невозможно. Не используйте коллажи. Следующий момент - это использование различных животных, как вот этот енот маленький, а или вот этот ягнёнок. И пытаться применить на них танец Дэдпула будет действительно странно, и модель вам просто пришлёт ошибку. Да, в данном случае она пыталась что-то сотворить, но у неё не получилось, да. А тут она достаточно быстро поняла, что сделать это невозможно, поэтому она не будет даже пытаться и пришлёт вам ошибку. Ну и в целом по CLK Motion Control важно понимать, что максимальная длительность 30 секунд, минимальная три, о чём мы пишем в данном окошке. Поэтому если вы прошлёте просто дольше, у вас ничего не получится загенерировать. Поэтому строго следите за правилами, каждой не расти, какие есть возможности у неё, да, длительность видео, настройки, и тогда всё у вас будет получаться. И по традиции о конкурсах, победители из прошлого выпуска на ваших экранах. И если среди них есть вы, тогда напишите в нашу службу заботы, чтобы активировать свой приз. И сразу запускаем новый нариве подписки в Sнкс. А условия, как всегда, простые. Подпишитесь на этот канал, поставьте лайк этому видео и напишите в комментариях, с какими ошибками или неожиданными результатами вы чаще всего сталкиваетесь при работе с нейросетями. Вдобавок попробуем ответить на все комментарии с уже готовым решением. Ну а в следующем выпуске мы выберем трёх счастливчиков и подарим по VIP-подписке в Sнтакс. Подводя итоги, важно понимать одну вещь. Нейросети не работают на удачу. Почти все ошибки и странные результаты возникают там, где запросы, референсы или исходные данные не совпадают с логикой конкретной модели. Если учитывать ограничения, соблюдать простые правила и не пытаться сделать всё сразу, генерации становятся стабильными и предсказуемыми. Надеюсь, этот выпуск помог вам лучше понять, почему возникают ошибки и как с ними работать на практике. Если это видео было полезным для вас, поддержите его лайком, подписывайтесь на наш канал и делитесь своим опытом в комментариях. Пока.