Новости нейросетей – Claude 4.5 Opus абсолютная победа или временный успех? В этом выпуске разбираем долгожданный релиз от Anthropic, который претендует на звание лучшей модели для кодинга. OpenAI готовит секретное «спокойное» устройство вместе с Джони Айвом, а Илон Маск строит солнечную ферму для своего дата-центра.
Что изменилось в голосовом режиме ChatGPT? Как бывший стратег MrBeast планирует изменить работу креаторов? Почему глава Nvidia считает безумием отказ от ИИ в работе? А также: редкое интервью Ильи Суцкевера, математические рекорды DeepSeek и новый взгляд на ИИ-пузырь от Эндрю Ына.
Все главные новости мира нейросетей, искусственного интеллекта и технологий — в новом выпуске! Если вас интересуют нейросети, gpt 5, Claude и всё, что связано с ИИ, этот ролик – ваш универсальный гид по последним трендам нейросетей. Погнали!
🎁 ВСЕ нейросети по одной подписке – https://clck.ru/3QafCu
Реклама. ООО "РТ". ИНН 5027275717. Erid CQH36pWzJq5ogcNuUt2wK83UYnpk8yGwq6Tvh1UUHHW6Se
📚 Эфир генерация фото и видео через ноды в Freepik - https://t.me/how2ai_bot?start=dl-1764488974ed6d7f026703
🎥 Записаться на поток ИИ Видео 2026 - https://t.me/how2ai_bot?start=dl-1764489475eaf0d5b294f5
Тайм-коды:
00:00 – Интро
00:43 – Триумф Claude 4.5 Opus
02:15 – Странности в бенчмарках Anthropic
03:28 – «Спокойный» гаджет от OpenAI
06:19 – OpenAI хочет догнать Spotify
07:17 – Новый голосовой режим ChatGPT
07:57 – n8n – полный MCP
08:58 – Илья Суцкевер про будущее AGI
11:02 – ИИ-сервис от стратега MrBeast
12:06 – Хуанг: отказ от ИИ — безумие
13:04 – Энергия для xAI Маска
14:01 – Claude за продуктивность
15:13 – Эндрю Ын про дефицит мощностей
16:49 – Прорыв DeepSeek
17:54 – Open-Source Intellect-3
18:40 – Новости Игоряна
19:15 – Обновление бота How to AI
20:05 – Релиз модели Flux 2
22:20 – Загадочная модель David (Thunder)
23:45 – Распознавание текста Tencent Hunyuan
24:25 – Презентации в NotebookLM и Kimi
25:35 – Генерация видео в Odyssey 2
26:40 – Мгновенная генерация Z Image
27:25 – Концепт Canvas to Image
28:10 – Виртуальная примерка Perplexity
29:05 – LTX Retake: пересъемка видео
29:55 – Grok генерирует видео по тексту
31:10 – Метод Split To Merge
33:00 – Заключение
Бусти – https://boosty.to/prodadvice/single-payment/donation/535968/target?share=target_link
Тг How2AI – https://t.me/How2AI
Тг чат How2AI – https://t.me/how_to_AI
Тг Креативный Совет – https://t.me/creadvice
🥸 Личный тг Дяди Д – https://t.me/true_dyadya_d
Оглавление (29 сегментов)
Интро
Клод 4,5 опуса тантропика - это абсолютная победа. Black Forest Labs выпускает достойного конкурента Нанобана. Известны подробности о хардверном устройстве Open AI. Что за новая топ секретная текст видеомодель? Главное и интервью недели. Новый голосовой режим чат GPT, сумасшедший проект Илона Маска и все остальные важные новости в мире технологии нейросетей искусственного интеллекта собрали для вас. Давайте на всё это подробненько посмотрим, но перед этим поставьте, пожалуйста, лайк, оставьте коммент. На канал подпишитесь, чтобы новые выпуски не пропускать. Погнали. Люди, роботы, привет. Это Провет. Меня зовут дядя Д. Вероятно, много из этого вы уже слышали, особенно если смотрели наш предыдущий
Триумф Claude 4.5 Opus
ролик про сложные функции, но вышел OBUS 4,5. Здесь посмотрим на немножко другие и новые бенчмарки. Это абсолютно прекрасная модель. Они вот взяли и, по крайней мере, попытались перебить успех Gemin 3. В чём-то вышло, в чём-то не очень. Он абсолютно прекрасен в кодинг. Он занимает первое место клод 4,5 опус, конечно же занимает первое место на бенчмарке SWE Bench Verified. Вот эти все софтверн инженерские, айтишные, программистские, крайне непростые задачки. Хотя, конечно, тут уже вопрос. Тут в целом достаточно сатурированный бенчмарк, и очевидно, что модели на нём уже и учатся, поэтому, ну, о'кей. Модель стала дешевле, что круто. Теперь 5/25 долларов за милн и inputa токенов. То есть чуть-чуть больше вообще появилось смысла в опусе. Раньше было 1575, что было, ну, абсолютно сумасшедшие неподъёмные деньги. Модель есть меньше в целом контекста, лучше справляется с задачами и употребляет меньше контекст. и токенов для того, чтобы их решать. И вот такое классное показывает Антропик пример, как опус экономнее, эффективнее решает те же задачи и быстрее, чем, например, 4,5. Ну и вызывает инструменты различные в целом более ответственно подходит к вашему кошельку, получается. Можете глянуть здесь на все остальные бенчмарки, которые нам приводят Antropic. Но я вам ещё такой интересный bench покажу. Называется Core Bench, где
Странности в бенчмарках Anthropic
моделям нужно реплицировать научную работу, провести все те же тесты, запустить такой же код и получить схожий результат. И что интересно, Clot Sonet 4,5 High ээ показывает худший результат, чем Opus. Я говорю проet. Клод OPUS 4,5 High показывает худший результат, чем Opus 4. 1, чем Sonet 4,5 и Opus 4. 1 снова. Ну, видимо, в разных вариациях. В общем, странненько. Это нам говорит лишь о том, что всё-таки все эти бенчмарки такая достаточно, ну, не прямо объективная вещь. На ваших задачах может работать та илиная модель лучше, хотя на бенчах она будет уступать конкурентам, поэтому прямо берите и проверяйте. Но на webdef арене cло 4,5 opus занимает первую строчку, обгоняет Ginite 3, GPT5 и действительно во фронтEN моделька рубит хорошо. Тем не менее на текстовой арене уступает Gate 3, уступает грок 4. 1 Thinking, которого Лёня Маскович обновил на прошлой неделе, если я не ошибаюсь. Что разрабатывает OpenA? Стало известно, что спокойное AI устройство. Вот так вот сейчас про это
«Спокойный» гаджет от OpenAI
говорят. Философия устройства как переход от хаоса Тайм Square к спокойствию горного озера. Технология фильтрует информацию и взаимодействует с пользователем в оптимальные моменты, а не бомбардируют его уведомлениями. И как будто бы, да, это было бы прекрасно, если бы была такая умная система, которая, в общем-то, не эксплуатирует нашу дофаминовую систему. Но с другой стороны, я в это слабо верю, потому что на иглу тикТока и вот всех остальных этих штук человечество уже как будто подсело. Захотят ли люди отказываться от этого, я не знаю. В любом случае, наивная простота с глубоким интеллектом. Вот так вот Джонни Айф и Самальтман философию а этого устройства описывают. То есть и будет определять оптимальные моменты, когда с вами нужно взаимодействовать. Ну, в общем, об автономном режиме всякие вопросики, сдатчики решать. Посмотрим. Каждую неделю выходят новые модели. Это замечательно. Во-первых, что они выходят, а, во-вторых, это замечательно, когда у вас есть способ эти модели протестировать, ими попользоваться. И это можно сделать без сложных всяких там заморочек. Есть замечательный сервис, про который мы рассказывали не раз, GP Tunnel, и он даёт вам доступ к огромному количеству нейросетей в удобном интерфейсе. И скажу сразу, у ребят сейчас действует крутейшая акция, очень выгодная, поэтому досмотрите до конца интеграции, чтобы узнать подробности. Итак, 120 нерсетей в одном месте. Новые модели появляются буквально через пару часов после официальных релизов. Увидели новость про очередной GPT Cl 4,5 и Opus CN, чтобы там ни было, в GP Tunnel это всё чудо уже есть. Подписок здесь нет, что прикольно. Почему? Потому что вы можете начать вообще с любой суммы и платить только за то, что вы реально используете. Без лимитов, без блокировок, без трёхбуквенных решений. Для нас, что особенно важно, оплатить можно российскими картами, международными тоже можно, да и в целом криптой тоже. Полная свобода внесения средств. У GPANL официальные партнёрство STROPic, Minimx, Sed, значит, стабильная работа моделей, адекватные цены. Сервисом пользуются уже 1,5 млн человек. Так что круто. и проверено. Специально для креаторов у ребят сейчас появился Telegram-канал GPunel. Регулярно выходят инструкции, промты для создания трендовых визуалов. Полезная штука, если работаете с и графикой. Ну и события года, акция, про которую я говорил, скидка 50% на использование нанобана до конца года. Если планировали попробовать потестировать нанобана про, конечно же, необычный нанобана, то вот заходите. Сейчас самое время. Ссылка будет в описании. Надёжный, проверенный способ, чтобы использовать нейросети. Заходите, тестируйте. Чуть-чуть больше данных The
OpenAI хочет догнать Spotify
Information нам показывает про Open AI. Э, и эти цифры, в общем-то, как будто вселяют надежду в то, что всё это дело не пузырь, всё это дело будет окупаться. Ну вот смотрите, компания к тридцатому году хочет достичь такого же уровня подписочной модели, как там, например, Spotify. Ну то есть они хотят, во-первых, нарастить базу пользователей достаточно сильно, с 800 млн пользователей до там каких-то миллиардов и увеличить процент платных пользователей. В таком случае где-то у нас к тридцатому э году будет 220 млн платных подписчиков. Это как Spotify, чуть там ниже, чем Netflix и Microsoft 365. И это будет мно много денег, 270 млрд, а именно, и учитывая, что компания прогнозирует потратить за всё это время до тридцатого года 115 млрд, то как будто бы дебет скребедитом сходится и в общем есть шанс, что даже будет компания деньги зарабатывать. Да, теперь у нас
Новый голосовой режим ChatGPT
голосовой режим чат GPT и основной текстовый интерфейс вместе. нету необходимости между ними переключаться, а значит, можно говорить, наблюдать за появлением ответов в реальном времени, порассматривать предыдущие ээ сообщения, диалоги, и всё это в непрерывном разговоре. Это классно, наконец-таки, потому что, ну, конечно, к вот этой мм UI UX истории, ну, много было вопросов. Неудобно всё-таки было пользоваться голосовым ассистентом сейчас получше. Так что обновите своё приложение. По идее, должна эта фичь уже была вам выкатиться. Ну, смотрите
n8n – полный MCP
вообще прикольную штуку сделал. Они теперь, так сказать, все workflow замCровали. То есть вы просто можете вот нажать enable mcp. И что произойдёт? Вы сможете через MCP, через model context протокол обращаться к этому конкретному workflow через и агента или через с вашего фронтэнда. И гораздого гораздо проще теперь соединить MCP. В общем, сделать NAN, пардон. бэкэндом, чего бы то ни было, ну или просто какими-то автоматизациями, к которым ваш и агент может обратиться. Так, дядя, ну спасибо, мы всё поняли. Покажи нам какой-нибуд скринкаст ещё. Вот так что это интересно. То есть NН теперь можно плотно использовать какн. Я не знаю, вы об этом догадывались, не догадывались. В общем, если вам кажется эта тема интересна и хотели бы поподробнее про это узнать, э, напишите в комментах про это новое обновление NA10, про то, как N использовать ээ для ваших приложений или как его использовать там как автоматизация для ваших агентов. В общем, черканите, можем снять отдельный ролик. В целом, тут есть про что поговорить. ML комьюнити на этой
Илья Суцкевер про будущее AGI
неделе было взбудоражено. Почему? Потому что Илья Суцскивер пришёл на интервью к Дваркишу потелю. Заходите на Ютубе и вбивайте Даркишпатель Илья Сцкивер, ну или вот там название. Если хотите посмотреть. Всё на английском разумеется. Может, есть какие-то и переводы, если не хотите на английском смотреть. В целом не могу сказать, что какое-то вообще сверхпровное и наполненное инсайтами интервью. Наверное, многие ждали, что Илья Суцсквер там что-то расскажет про свою компанию SSI. Если вы не знаете, кто это, то это, в общем-то, сооснователь Opena и дядька, который ээ много сделал для того, для развития трансформеров и для компании Opena. Потом у них там были с Сэмом Альтманом определённые разногласия. Один другого выгонял или не выгонял, в общем, непонятно. Тем не менее, у него сейчас компания Save Super Intelligence, и мы все так или иначе думали, что Илья будет делать безопасный сверхинлект, и это будет его главный единственный продукт, но, э, судя по всему, нет. по интервью он рассказал, что кажется, может, какие-то другие промежуточные версии, промежуточные продукты появятся. И это прикольно. То есть что-то вот такое мы можем ждать. Илья ожидает AGI и полное изменение вообще экономического уклада общества в ближайшем будущем. Это вот можно таким технооптимизмом и назвать. И кто-то считает, что это все незбыточная ерунда. Ну вот очень-очень толковый учёный говорит вот такие вещи и также считает, что в недалёком будущем у нас какая-то всё-таки будет система симбиоза нашего мозга и э мозга искусственного или подсоединения нашего мозга к облаку для там того, чтобы какую-то информацию вытаскивать. В общем, что-то интересное точно грядёт. Илья стоит во фронтире всего этого дела. Интервью небольшое, полтора часика можете за обедом или кофеём глянуть.
ИИ-сервис от стратега MrBeast
Интересная штука. Бывший стратег Beст создаёт и инструмент для креаторов. J Neo PAL, которая предназначена для анализа видео и генерации идей. Эээ, интересно, что как бы восемнадцатилетний предприниматель помог создать видео мистурбисту с там миллиардными просмотрами, а после ухода в двадцать третьем году возглавил там собственные каналы, которые тоже прилично успешные. Платформа состоит из трёх компонентов: аналитика и ягенерация идей. Система анализирует короткие видео, изучает хуки, настроение аудитории, оригинальность, тренды и доступно, я так понимаю, каналам с минимальным под количеством подписчиков 100. 000. Стоит 250 баксов в месяц. Чертовски интересная просто лично для меня как минимум тема. Я вообще сам думал что-то вот такое попытаться в какой-то момент к своей карьере подсоздать, но вот эх опередили. Ну нам осталось всего 50. 000 подписчиков. И в общем, схожу ээ на эту платформу, протестирую. Но интересно, это безумие
Хуанг: отказ от ИИ — безумие
не использовать AI в каждой задаче. Вот с такой, э, хитрой улыбкой заявляет Дженсен Хуанк. Вы что, с ума сошли? - говорит он руководителям, которые ограничивают своих сотрудников в использовании AI. Нужно использовать вообще во всех задачах- говорит Хуан. своей компании там курсор просто под пальцами каждого инженера уже находится. И Хуан говорит, что это не угрожает занятости, ээ а освобождает время для более значимых задач. И действительно, Nvвиan продолжает нанимать сотрудников. Они в прошлом квартале несколько тысяч новых сотрудников наняли. План расширение ещё около 10. 000 новых позиций в будущем году. Поэтому, ну вот, вот к вопросу о том, уничтожает ли рабочие места искусственный интеллект. Хуан говорит: "Не уничтожает". И используйте другие всё это дело усердно. Не будьте безумцами. Лёня Маскович в
Энергия для xAI Маска
свою очередь строит ферму солнечную рядом со своим датацентром Колоosс. ээ 88 акров рядом, ээ с вот этим суперкомпьютером он себе выделил и хочет хоть какое-то количество мощности генерировать при помощи солнышка. И это всего лишь 30 МВт, то есть 10% от общего потребления колоссуса. Всё остальное генерируется газовыми турбинами 400 мегават. И почему-то, ну вот новость говорит, что без необходимых экологических разрешений и рост концентрации диоксида азота на 79% ээ повысился после открытия э объекта вот в близлежащем районе Boxстаун. В общем, конечно, да, Теслы, солнечная энергия, красота и благодать. За природушку маск топит, но не за природушку в бокстауне, судя по всему. Антропик говорит, что КЛОТ экономит 80%
Claude за продуктивность
времени и может удвоить рост продуктивностности США. Исследование вышло на этой неделе достаточно объёмное, с большое количество с большим количеством не самой мм примитивной статистики. Можете зайти посмотреть. И в целом там ээ есть определённый анализ, который основан на 100 на 100. 000 реальных диалогов склод. И антропик всё это дело проанализировал. ещё некоторые такие предположения сделать, тоже, конечно же, при помощи клода и так далее, и так далее. В общем, экономия времени по профессиям варьируется от 30 минут до 2 часов на задачу. И в разных направлениях и профессиях она, конечно, по-разному варьируется. Нуно вот можете на эту посмотреть табличку, сколько часов было сэкономлено и какое-то количество ээ денег ээ сэкономленных вот учитывая среднюю ставку. Ну и такой вот графичик, который нам показывает, как печально последнее время растёт продуктивность в Штатах. И антропик со своим клодом, ну или в целом с искусственным интеллектом, как технологии, говорит, что продуктивность другие вырастет. Используйте, не будьте
Эндрю Ын про дефицит мощностей
безумцами. Существует ли AI бабул Эндрюн? Это сооснователь курсеранин Aй. В общем, дядька известный в Эле говорит, задаётся таким вопросом. И оказывается, по его словам, инфраструктура для инференца испытывает дефицит, недостаток мощностей для генерации токенов. То есть, чтобы сейчас все наши модели гонять и особенно всякие там ссоры прожорливые и вот видеогенераторы, не хватает мощности, не хватает ни ээ гигават, мегаватов энергии, не хватает, видимо, и самой инфраструктуры хардверной. А вот тренировочная инфраструктура говорит, может быть рискованной зоной с возможным пузырём, потому что если тренировка будет занимать меньше ресурсов, то все вот эти вот многомиллиардные вбухивания денег сейчас в эти дата-центры просто не окупятся. И, кстати, вот это я тоже не упомянул. Илья Суцкевербер говорит то же самое, что, в принципе, как будто бы сейчас начинается такая эра resarch основа. У нас была эра масштабирования, мы сильно масштабировались, огромное количество настроили дата-центров, а сейчас, в общем-то, определённая стена всё-таки есть. Модели, просто увеличивая в размере, они становятся катастрофически там кратно умнее. Поэтому нужно снова рерчить и находить новые способы тренировки, которые сделают модели, приблизит к Aйджай, назовём так. Поэтому вот вроде есть пузырь, а вроде нет пузыря. Ну вот что-то как всегда такое не совсем понятное. Есть ли пузырь? Черканите в комментах. Ну и под занавес моего
Прорыв DeepSeek
кусочка, ээ open source. Open source Deep seek выпускает модель новую. Правда, не ту, что мы ждали, там R2 где-то плачет и ждёт, пока его зарелизят на публику, а не только на благо ком партии будут гонять. Ну неважно. Deepsek MTH V2 покоряет математические олимпиады. Модель построена на ээпсике V3 с каким-то там 600 с чем-то миллиардов параметров показывает абсолютно передовые результаты. Вот вы можете посмотреть срав, ну да, лучше чуть-чуть у нас здесь уступает Дemниy Deep Think по вот этой IMO Gold, э, олимпиаде, но по всем как бы другим параметрам просто потрясающая модель, которую вот научили беспощадно круто решать математику. Использовался не совсем традиционный reinforcement learning. Тут модель учили вот именно прямо в процессе доказательств понимать, насколько это доказательство верное. То есть модель обучалась находить и устранять ошибки в собственных рассуждениях. Ну и примерно
Open-Source Intellect-3
похожий, судя по всему, подход вот у такой модельки Интеллект 3 от компании Prime Intelct. Ни раз про неё не слышал, но вот ребята вышли и на базе GLM 4. 5 Air это не самая большая модель от компании ZI, вот этот GLM неплохо обогнали конкурентов, не катастрофически сильно. То есть здесь разрыв не прям какой-то сумасшедший, но всё равно использовали supervised funt tuning, использовали reinforcement learning в разнообразных окружениях. Ну и вот показывают, что действительно по мере того, как модель учится с этим reinforcement learning, она становится она всё лучше и лучше показывает результаты. Это полный open source. Тут у них открытые все датасеты, обучения, фреймворки, то есть типа прям
Новости Игоряна
совсем вообще всё открыто. Поэтому, если вы вот поэтому немножечко угораете, то можно поковыряться там на Хагинфейсе, Гитхабе, всё это найти. И на chat primintellect. ai можно саму модельку тоже погонять. У нас 50. 000 подписчиков, кстати, на Ютубе. Спасибо вам за это. У меня всё, люди, роботы, привет. С вами Игорян. И сегодня, как и всегда, расскажу про новости креативных нейросетей последней недели. Наверное, самым интересным и актуальным на прошлой неделе, лично для меня было то, что бот How to AI, то есть наш бот протсовета, переформировали.
Обновление бота How to AI
Теперь мы будем каждую неделю проводить бесплатные открытые эфиры, поэтому предлагаю всем заскакивать туда. Мы уже на прошлой неделе провели эфир про нанобану. На грядущей неделе будет эфир по фри пику, на который всем рекомендую записываться. будет очень много классной, полезной информации про то, как вообще генерировать видео, всякое добро, про то, что такое нодные workflow, что такое ноды в генерации изображений, в генерации видео. А если вы это всё знаете и хотите в какой-то более профессиональный уровень углубиться, то очень рекомендую вам прийти 15 декабря на наш Интенсив по и видео, где мы неделю будем в очень плотном формате всё это дело разбирать, пережёвывать, вместе взаимодействовать, как-то общаться, отвечать на вопросы и в целом мотивироваться как-то поддерживать друг друга. Короче, будет классно. Много у нас всего есть в боте how toi. Рекомендую заскакивать, познакомиться.
Релиз модели Flux 2
Ну а из более глобальных релизов, самое интересное, наверное, что случилось на той неделе - это релиз Flux 2. Flx или, как многие говорят, Fлюк - это модель от Black Forest Labs, которые создают топовые модели. У них очень хорошие open source модели, наверное, лучшие в мире open source модели, хотя, конечно, появились уже и китайские конкуренты. До этого у них были модели Контек Про 1. 1 DEF и так далее, которые очень классно себя показывали и в понимании текста, и в качестве генерации, в отсутствии артефактов. Короче, просто очень хорошие модели ребята делают, но вы, скорее всего, и сами это знаете, если смотрите меня. Если не смотрите, то вот знаете, что теперь FLX 2 вышел. Он прямо очень хорош. Качество до 4 мегапикселей - это почти 2К, что меньше, чем у нанобананы в два раза. Но в целом возможность генерировать картинки в 2К - это уже круто. Мультиреференсы, наконец-таки. Ну и в целом, если интересно не пропускать такие релизы сразу же, в числе первых их видеть, то мы это всё, естественно, постим у себя в Telegram-каналах, ко их у нас целых три. Вот мой Telegram-канал Креативный совет, где как раз-таки я рассказывал, что цена очень приемлемая, референсов до десяти, что тоже меньше, чем бананы, но всё ещё очень круто. И четыре версии у нас есть. Это Pro, которая, ну, сильнее всех, дороже всех и качественнее всех. Затем флекс, в которой больше параметров контроля. Деф, которая открытая, которую можно себе на компкс скачать. 32 млрд параметров. И Кляйн, которая раньше всегда шнель была. Почему-то они в КIN решили переименовать, но всё-таки немецкая компания, хотя и то, и то в целом на немецкие слова. В общем, почему так непонятно? Ну, точнее, как акцент не на том, что Шнель быстро, а на том, что Кляйн маленькая, хотя всё ещё она не Openourсная. Короче, непонятно, да. модель ещё не появилась на аренах нейросетей, то есть пока что там тестировать можно, но вот ещё результатов никаких нету. Прошлая версия Контек вот занимает такое почётное место за Ревы, которая очень-очень хороша. Но зато на аренах появилось кое-что поинтереснее, а именно модель Виспер Thunder или, как её называют друзья, Давид или Дэвид. модель от неизвестной компании, которая в таком вот анонимном режиме, как когда-то нанобанастроубери
Загадочная модель David (Thunder)
блюбери, да, в общем, кто только так не назывался, висит на арене нейросетей, её тестирует. Она вот уже обогнала VO3, VO31. И да, вы правильно заметили, VO3. 0 выше, чем VO31. Так почему-то вот происходит. Это вот говорит об объективности, конечно, да, наших арен нейросетей. Тем не менее, тысячами счисляется количество сравнений. Вы сами можете зайти и поучаствовать. Поэтому как будто бы это всё-таки объективная достаточно штука. Просто обусловлено чем-то другим, то, что 3 выше. Но не суть. Суть в том, что модели тут точно распределены по пониманию промпта и потому, как они этот промпт превращают в итоговое видео и насколько это видео эстетично. И в общем, по этому параметру модель обгоняет Veo 3, обгоняет Soro Lumarй 2, CLН 25 Turbo и так далее. Короче, модель очень крутая. Опять-таки, если интересно, в креативный совет можете зайти. Я там видосы прикреплял, да, того, как она генерирует это всё добро. В целом выглядит довольно хорошо. Как будто бы артефакты есть, но качество классное. И промпт я там тоже читал. В общем, ну, всё по промпту как нужно. Будем, в общем, релиза Дэвида ждать. А пока что давайте двигаться дальше. А дальше у нас ОКР моделька. Обсусивно-компульсивное расстройство. Нет, а вот Optical Character Recognition, да, то есть оптическое распознавание текста. Это штука
Распознавание текста Tencent Hunyuan
которая, естественно, у нас везде в чатах GPT Gмийках есть, но вот Huan, точнее Tent Open source Huan OKR, поэтому можно вот там на хагфейсе, гитхабчике найти и куда-то локально себе ставить модель, чтобы тексты лэмки ваши умели читать. Ну или не мки, точнее, просто компьютеры, да, чтобы умели читать. Поддерживает 14 языков, среди которых русский тоже есть, так что пользуйтесь. А ноутбук LM выпускает сервис для создания презентаций. И ключевой фичей является, наверное, то, что в него встроено нанобана. То есть в презентациях будут прямо вот картиночки с текстом или без текста генерироваться.
Презентации в NotebookLM и Kimi
Что будет вашим презентациям хорошие, качественные эффекты добавлять. Учтите, что, естественно, там могут быть факапы и просто от лмки там могут быть ошибки, и от генерации картинок тем более там могут быть ошибки. И из минусов это всё ещё нельзя никуда экспортировать. То есть это будет всё-таки не презентация, а пдфка у вас просто. А если же вы хотите экспортировать что-то в PDF, то вам понадобится на удивление не сервис от Гугла, а китайский конкурент. МИI выпускает тоже генератор презентации на базе K2 модели со встроенной нанобоны pro. Примерно, короче, то же самое. Также классно работает, генерирует там вот инфографики здоровые, как вы можете видеть. Всё это оформляет в презентации, и вы это в PPX или как там оно качаете. PptX, да. И Odyssey 2 тоже немножечко обновляется. Совсем недавно рассказывал. Это достаточно забавный сервис, который позволяет генерировать онлайн видео. То есть вы создаёте прямо такой стрим. В этот стрим вы пишите, дописываете мини-промпты и вносите какие-то вправки. То есть вот там собака, да, видели, бежала. Вы к этой собаке дописываете
Генерация видео в Odyssey 2
там какая-то ленточка, пусть пролетит. Пролетает ленточка. Бесплатно. Это можно у них на сайте попробовать. В целом, ну, забавная штука. Хотя для чего она нужна, я не понимаю. Выглядит это всё-таки, ну, не суперкачественно. Пока что артефактов много. А вот мало артефактов в модели Z Image. Это ничего не имеет с российской повесткой модель. Модель полностью китайская. Почему Z, непонятно. Но вот артефактов там точно нету. Меньше секунды и картинка вот такая вот красивая готова. То есть видите, да, сколько стоит картинка. Оченьочень мало, как и должны стоить картинки. 6 млрд параметров всего и суперкрутое качество выдаёт. В рейтинге LM арены на четвёртое место она помещается, но его стоит уже обновить, конечно же, и много чего тут не хватает. Тем не менее, реализм очень крутой. Собаки детализированные, девушки красивые. Текст шикарно рендерит. Русский язык я не проверял, как рендерит, но вот Ханюан, который недавно выходил, умеет это делать классно. Тут
Мгновенная генерация Z Image
конечно, я сомневаюсь, что прямо хороший будет результат на русском, но надо проверить. Поэтому давайте в комментариях спишемся, как потестите, я потещу и там пообщаемся на этот счёт. Хорошо понимает мир, да? Вот решает почти, в общем, э что-то на доске. Пытаются они куда-то в сторону нанобана бить, но, конечно, уровень не тот, что у промодели. Всё-таки это как бы не image, а image generation модель. То есть она нужна не для превращения картинки в другие, как нано банана и даже GPT image, а что-то такое более архаичное, от чего как будто мы уходим, но оно вот зато в Open source есть. Наверное, это сейчас лучшая open source модель из тех, что можно на умеренно слабом железе запустить и радоваться жизни. А
Концепт Canvas to Image
Perplexity выпускает tryon, то есть возможность примерять одежду. То есть вы там говорите: "Найди-ка мне пиджак Perplexity, и давай посмотрим, как этот пиджак будет на мне сидеть". Я всё ещё уверенно вам заявляю, что это всё будет работать плохо, потому что не точно. Я человек такой, который любит точности. И когда вы что-то творческое делаете, это одно, там точности не так сильно нужны. А когда вы всё-таки хотите примерить одежду, то это критически важный момент. Нейросеть не знает то, какая у вас фигура. Нейросеть не знает, какой крой у одежды и как этот крой будет конкретно на вашей фигуре сидеть. То есть, конечно, как условно эта кофточка с вашими глазами будет сочетаться, она
Виртуальная примерка Perplexity
сможет вам показать. Но не более. Всегда есть шанс того, что что-то где-то пережмёт, натрёт и так далее. Это супер такая фича просто для хайпа, которая по факту ну никак вам не поможет. Сейчас ещё придумают. Давайте обувь примерять так будем. Это вообще сумасшествие. Если там куртку ещё какую-то, ну, куда не шло, то с обувью это прямо, ну, до абсурда неправильно делать, мне кажется. А LTX сервис по генерации видео, у которых есть классная студия, выпускает ретейк. Возможность куски видео просто брать, редактировать, перегенерировать. В целом, это можно и в других сервисах делать, несмотря на то, что они это презентуют как супер что-то инновационное. И я даже скажу, что в том жеве это будет выглядеть покачественнее, чем у них. Показывают вроде, что работает классно и можно классно перегенерировать, но это черри пики прямо. То есть это то, что они отобрали
LTX Retake: пересъемка видео
для того, чтобы оно красиво выглядело. По факту там что-то вот такое вот происходит. В общем, не очень. Агрок научился генерировать видео по текстовому описанию. И у меня, конечно, один вопрос, что нельзя было раньше. Я, конечно, понимаю, что видео по тексту, ну, такое себе генерировать. И ученикам всегда говорю, что чтобы иметь контроль, чтобы делать, ну, не что попало, а что-то, что вы хотите сделать, нужно генерировать видео из картинки. Но, тем не менее, не иметь возможность сделать видео по тексту тоже достаточно странно, как будто бы. И в общем, да, в Дроке эта возможность появилась. Можно делать красивые видосики. И теперь немного поговорим про что-то такое футуристичное. Во-первых, canvas to image. Такой ээ такой концепт появился, то есть холст в изображение.
Grok генерирует видео по тексту
Мы берём, помещаем какие-то объекты, предметы, собаки, выделяем области. Тут вот это, тут вот то, вот такое расположение, да, и получается картинка. Его в целом и раньше можно было, естественно, так делать. Вот такое вот уже можно делать даже. Но по сути Canvas T image - это просто удобный веб-интерфейс для того, чтобы с этим добром работать. И я, конечно, за это и топлю, потому что, да, на банана, честно надоело тем, что нету интерфейса. Модель классная, да, но что это? Вот AI, другое дело, очень круто. Либопик существует, у которого вот но это турбоудобная штука, про которую у нас, кстати, эфир на этой неделе будет. Я вот о чём в начале говорил. Много, короче, всего крутого появляется. И хорошо, что индустрия в этом направлении движется. Не удивительно, но вот меня это радует, потому что я всегда за простоту использования. По мне, это самое главное вообще, что может быть. Потому что зачем рисовать каким-то неудобным инструментом, когда можно взять и купить себе хорошую, мягкую, приятную кисть или жёсткую, наоборот. Ну, короче, такую. В общем, три кисти купить, условно разные и рисовать. Так, чтобы удобно было максимально, а не стараться там вот всё
Метод Split To Merge
каким-то там ниточкой, да, на деревяшечке пытаться раскрасить. Ну и последняя новость на этой неделе - это STM. Новый подход к генерации видео, точнее, к редактированию видео. Это переводится как split to merge, точнее расшифровывается, а переводится как сначала дели, потом переделывай, в, ну, в общем, вот соединяй, да. Суть в том, что мы привыкли, что модели перегенерируют всё видео, когда нам нужно что-то в нём отредактировать. Теперь же модели будут, ну или не все, а вот часть, которые будут эту STM-технологию использовать, будут сначала брать, смотрите, видео со свинкой, да? Взяли свинку, вырезаем сначала свинку, да, затем соединяем свинку со всем остальным. И она, в общем, врезается уже в новое видео после отделения. Благодаря этому у нас объекты будут очень классно сохраняться и не будут покрываться артефактами. Видео будет намного более как бы целостным выглядеть итоговое. И классный метод, который пока что, естественно, нигде трогать, попользовать нельзя, но в перспективе многие модели, я уверен, на этой основе будут работать. Это, конечно, чуть более требовательно к ресурсам, как будто бы звучит, но и результаты, скорее всего, будут по этому методу получаться лучше. Ну вот и подошли новости к концу. Если это видео было полезно, то поставьте лайк, подписочку, комментарий, колокольчик, все дела. И не забывайте про то, что эфир у нас будет на неделе. Интенсив по видеогенерации через 2 недели. Оченьоченьочень там будет продуктивно, интересно, познавательно, общительно, ээ, мотивационно и так далее. Как только там не будет, будет прямо вот неделя
Заключение
плотной работы, чтобы зарядиться и знаниями, и мотивацией, и, может, найти кого-то, с кем какие-то проекты можно делать, потому что у нас реально приходят абсолютно разнообразные люди и от самых новичков до реально очень прошаренных чуваков. И все мы вместе что-то там по отдельности у себя генерируем, какие-то прикольные истории, продукты, видеорекламы и так далее создаём. Ну и с вами был Игорян. Дядя Де ещё был в первой половине ролика. Это всё продуктивный совет. У нас каждое воскресенье выходят новости и ещё какой-то ролик на неделе. Обычно обзорчик. Либо новиночку какую-то обозреваем, либо гайдик, либо что. Короче, увидимся на следующей неделе. Вы сами знаете, на чём увидитесь, на что вам надо, на то вы и приходите. У нас реально есть всё на все случаи жизни. Короче, что-то я заговорился пока. Ну, не прямо на все случаи жизни, на всё, что с нейросетями, наверное, связано почти. Вот это да.