# Новости ИИ: Развратный ChatGPT, Новый VEO 3.1, хайп-релиз Claude

## Метаданные

- **Канал:** Продуктивный Совет
- **YouTube:** https://www.youtube.com/watch?v=hj_AuY5CPls
- **Дата:** 19.10.2025
- **Длительность:** 28:03
- **Просмотры:** 16,728

## Описание

Новости нейросетей: ChatGPT разрешил эротику, Anthropic создал замену MCP, Google выпускает Veo 3.1 В этом выпуске разбираем горячие апдейты из мира искусственного интеллекта.

ChatGPT снимает запреты – что значит новый подход к «взрослому» контенту? Anthropic выкатывает новый релиз Skills, который может заменить MCP, и обновляет Haiku 4.5. Google DeepMind делает открытия в онкологии, а Nvidia выпускает персональный суперкомпьютер DGX Spark для всех желающих. Илон Маск заявляет, что Grok 5 будет умнее Карпаты и станет AGI. Как ИИ учится понимать пространство и время на примере видеоигр – все это и многое другое в новом выпуске!

Если вас интересуют нейросети, ChatGPT, gpt 5 и всё, что связано с ИИ, этот выпуск — ваш универсальный гид по последним трендам. Погружаемся в будущее уже сейчас!

🔥 AIjora – Все нейросети по одной подписке – https://www.aijora.ru/?utm_source=yt_prod_sovet

Реклама ИП "Новиков О.П." erid: c-CEa0-kvB9PYdHgpn9kTQr1WSXZZ

🔥Курс по видеогенерации – https://prodadvice.com/ai-video Успевай присоединиться! Научись создавать уникальные, запоминающиеся, продающие ролики при помощи ИИ! 

Тайм-коды

00:00 – Интро
00:34 – Эротика в ChatGPT
01:46 – Anthropic Skills вместо MCP
03:21 – Обновление Haiku 4.5
04:30 – Claude Code стал умнее
05:01 – OpenAI обучает агентам
07:25 – MCP в ChatGPT
08:01 – Google лечит онкологию
09:10 – 10 лет ИИ в геномике
09:52 – Апдейты NotebookLM
10:51 – OpenAI выпускает свои чипы
12:00 – Партнерство Meta и Arm
12:27 – Суперкомпьютер DGX Spark
14:00 – Новый бенчмарк: Grok 5
14:51 – ИИ пространства и времени
16:25 – Обновление Veo 3.1 от Google
18:55 – Ответ OpenAI: обновление Sora 2
19:29 – Новые приложения Runway Apps
20:55 – Эффекты в Runway: погода и время
21:47 – Новая нейросеть RiverFlow
23:52 – Google добавил Nanobanana в поиск
24:03 – Вышел Kandinsky 5 Video Lite
25:21 – 3D-миры в Open Source
26:06 – Бум Open Source моделей
26:43 – Робо-рука для...

Бусти – https://boosty.to/prodadvice/single-payment/donation/535968/target?share=target_link

Тг How2AI – https://t.me/How2AI 
Тг чат How2AI – https://t.me/how_to_AI
Тг Креативный Совет – https://t.me/creadvice
🥸 Личный тг Дяди Д – https://t.me/true_dyadya_d

## Содержание

### [0:00](https://www.youtube.com/watch?v=hj_AuY5CPls) Интро

дождались эротиков chatт GPT. Новый хайповый релиз отроopic на замену MCP. Google обновляет VO3. Что изменилось? Runway Apps, Nvidia, DJX Spark, GRК 5 и куча других интересных новостей, обновлений в мире нейросетей и искусственного интеллекта для вас мы в этом выпуске собрали. Подписывайтесь на канал, оставляйте комментарии, ставьте лайки, чтобы нашу работу поддержать. Ну и чтобы не пропускать новые выпуски, погнали. Начнём с чего? правильно, с эротики, которая будет в чат GPT. У

### [0:34](https://www.youtube.com/watch?v=hj_AuY5CPls&t=34s) Эротика в ChatGPT

Альтмана новый концепт под названием Treat Adults users like adults, что значит, если вы взрослый, созревший, молодой человек или девушка, не человек, молодой мужчина или девушка, общаться на любые или практически любые темы с языковыми моделями. Альтман признаёт, что в последнее время очень сильно зарегулировали чат GPT. GPT5 отказывался общаться на многие темы. В целом был менее эмпатичный, меньше в нём было этой персональности, сущности. Люди, в общем-то, требовали вернуть 4о. И говорит, что начнём мы с того, что будем возвращать вот эту эмоциональность в нашей модели и даже раздвинем наши рамки вплоть до флирта, секстинга и вот всех вот этих вот интересных забав с текстовыми моделями. Ждать вот такой вот интересный релиз можно в декабре этого года. А ждать ваших комментариев на эту тему и ваша мнение на этот счёт хочется уже сейчас. Поэтому не замедлите, не поленитесь и расскажите ваше мнение о том, верно ли дорога. Идём, товарищи. И я продолжу экскурсию по нашему Telegram-каналу. Некоторые новости покажу ещё. Да, вы можете на наш Telegram-канал подписаться, там более

### [1:46](https://www.youtube.com/watch?v=hj_AuY5CPls&t=106s) Anthropic Skills вместо MCP

оперативно выходят разные новости и посты. Так вот, антропик на этой неделе выходит с очень интересным релизом, который называется Skills. И это, по большому счёту, такие модульные папки, которые хранятся на вашем компьютере. И там собрана некоторая информация дополнительная в Markдау файле о том, как выполнять те или иные задачи. Плюс определённые, например, Python скрипты, которые позволяют клоду, ну вот, делать презентации или обрабатывать PDF-файлы, читать формы или ещё выполнять какие-то действия. То есть, по сути, это такой такое динамичное наполнение контекста. Клод не видит при запуске, э, в своём контекстном окне всю эту информацию, но видит её кусочек и описание каждого скила и может обратиться в нужный момент, когда вы начинаете с ним общаться. В общем, это такой MCP, но без всех этих серверов, клиентов и типов транспорта, который просто находятся локально на вашем компьютере. И уже многие и энтузиасты предрекают новый бум, новый хайп этой технологии этого подхода и говорят, что это, ну, очень просто и очень гениально. Подробной ссылочки на то, как это всё работает, как самому сделать эти скилы, какие уже есть скилы от антропика и как их запустить, в принципе, вот оставил в нашем ТГ. Мне лично релиз очень нравится, и мне, правда, кажется, что у него достаточно ээ большое будущее. Сам попробовать ещё не успел, но в принципе всё просто понятно, логично и должно работать хорошо. Ещё антропик радует новой моделью. Hi 45 обновился, и это замечательно. Модель, во-первых

### [3:21](https://www.youtube.com/watch?v=hj_AuY5CPls&t=201s) Обновление Haiku 4.5

получила режим размышления. Во-вторых, 200. 000 контекстное окно 64к output против 8. 000 хайку 3,5. Обновили порог знаний, и это всё бесплатно для юзеров в клоде. Это замечательно, вот почему. Потому что Хайку 4,5 обгоняет, например, по многим бечмаркам Clлоs Sonet 4. А Clot Sonet 4 - это абсолютно потрясающая модель. 73,3 на SWE и Bench обгоняется 4. Опять же, очень крутые показатели. Модель дешёвая, миллион долларов за инпут токенов, пять за, я сказал миллион долларов, 1 доллар за миллион инp токенов, пть за миллион output. Это круто. Это, конечно, всё равно пока что не сравнится с китайцами, но это уже позволяет Антропику, во-первых, выдать её бесплатно вам. без подписки. Ну и разработчикам тоже больше экспериментировать с моделями Anтропик. Суперски. Ждём OPus, который ождается к концу двадцать пятого или началу двадцать шестого. Опусus 4 с по и там у них за такой мамонт интересный образуется и что он из себя будет представлять. Клод-код тем временем становится всё круче и круче. Эти скилы, кстати говоря, можно и в клодко

### [4:30](https://www.youtube.com/watch?v=hj_AuY5CPls&t=270s) Claude Code стал умнее

добавлять. Это вообще уже просто какой-то сумасшедший набор различных функций в clдкод. Ну и теперь ещё он может вам и в режиме планирования, и в целом в режиме общения задавать наводящие вопросы, интерактивные вопросы перед тем, как приступать к задаче. Вот и разработчик ДТкод, который конкретно этой функцией занимался, поделился тем, что с новым обновлением добавили такую штуку. Классно. Open тем временем пытаются не отставать от этой гонки CLI агентов, и они выпускают серию роликов

### [5:01](https://www.youtube.com/watch?v=hj_AuY5CPls&t=301s) OpenAI обучает агентам

по кодексу. Кодекс C, кодекс ID. Э-э, уже два ролика выпустили о том, как этим всем пользоваться и конкретно в терминальном агенте, и вот в последнем ролике о том, как это всё подключить к среде разработки. Можете и у них на Ютубе полистать, можете и в XE поглядеть. Прикольно, можно у Openai из первых рук немножко поучиться, но не всегда выходит уж всё раздобыть из первых рук поучиться или нейросетями попользоваться. Приходится искать разные сложные обходные пути и зачастую достаточно дорогие. Я нашёл классный сервис, который предлагает демократичные цены, понятную систему оплаты и большое количество топовых моделей, собранных всех в одном месте. Аora собирает как модели для работы с текстом, так и модели для генерации картинок. И тут всё официально. Это официальный API без костылей, левых сборок. И главная фишка платформы в скорости 99% всех обновлений уже на следующий день сюда выходят. Поэтому хоть GPT5 используйте, хоть Clotд 4 с поно, дмий 2 с по, просто выбираем модель и тестируем её. Оплата идёт по системе токенов, что понятно, удобно, прозрачно. Один бюджет на всё: на текстовую модель, на генерацию изображения. Здесь вы можете посмотреть, сколько конкретно и за что с вас будет списываться. Из изображения есть FLС, есть Imagine, есть классный Cdream, конечно, есть нанобана. Работает замечательно. Я потестировал всю силушку нанобананы. ээ использовал. Ну и при работе с LLM не только у нас есть возможность текст генерировать, что прекрасно, искать информацию в интернете, пожалуйста, анализирують файлы PDF изображения, вся история чата сохраняется между устройствами, что круто. И есть iOS и Android. Скачали и с телефона работаем. Итогора - это куча инструментов. Никаких VPN, всё стабильно, быстро. Интерфейс полностью на русском, поддержка отвечает быстро. Тарифы начинаются, ну, просто с абсолютно катастрофически минимальных цен. Есть скидки и на годовые подписки, и если у вас команда и хотите корпоративный доступ запросить, то тоже напишите в поддержку, там вам классные тариф и предложат. А ижоры - это всё, что нужно, чтобы из новостей перейти к практике. Ссылка в описании. Полный доступ к MCP инструментам в чат GPT- говорит нам OpenA. Ну, правда, не такой, что он и полный, потому что он

### [7:25](https://www.youtube.com/watch?v=hj_AuY5CPls&t=445s) MCP в ChatGPT

распространяется только на buziness enterprise и еду, то бишь education планы. В девелопер моуде теперь можно любой MCP-сервер подключить, но опять же на подписчиков плюс базовый - это подписка. Такую штуку по-прежнему не раскатывают. То есть MCP мы использовать по-прежнему через GPT браузерную версию десктопную не можем. Если уж очень хочется какой-то MCP подтянуть к чат GPT, то перебегайте на другие планы. Это вам не гибли стайл, говорит нам Google. Ну это говорю я. Google использует более официальные формулировки и просто рассказывает, что они, ТипMind и Ельский

### [8:01](https://www.youtube.com/watch?v=hj_AuY5CPls&t=481s) Google лечит онкологию

университет, представили новую модель Cell to Sentence Scale 27B, которая на базе открытых моделей Гемма построена, и она впервые сгенерировала и экспериментально подтвердила новое открытие в онкологии. Я вот здесь привёл немножечко данных о том, что конкретно и как они тут делали. Наверное, главное, что я проговорю устно, так это то, что модель умудрилась совершить неожиданное открытие. Такие вещества в таком-то составе и в таком-то взаимодействии раньше не приводили к результатам. Точнее, люди не знали о том, что они к таким результатам приводить могут. То есть по фактически модель указала новый путь иммунотерапии. Если вы мой сарказм тут проследили, то это небольшой кол в сторону Open AI, потому что вот много претензий к ним, что их вычислительной мощности тратятся на то, чтобы делать AI сло в 42 и вот гибли э стайл в картинках обрабатывать. Google тем временем, пожалуйста, онкологию лечит. Ну, это я так, весь прогресс хорош, и общество разберётся, как с ним там дальше совладать, наверное. А ещё Google отличает 10 лет искусственного интеллекта в геномике. На самом деле, с 2015 года компания использует

### [9:10](https://www.youtube.com/watch?v=hj_AuY5CPls&t=550s) 10 лет ИИ в геномике

искусственный интеллект для того, чтобы разные совершать открытия, ускорять чтение генома, его понимание, анализ, создание пангенома всего человеческого вида. И у них много разных инструментов: Deepvarian, deep консенensс, deep псоматик. Например, некоторые системы модели лучше разобрались в тёмной материи генома. Все вот эти вот огромные количество последовательности аминекскислот, которые в себе ничего толком не кодируют. Для чего же они нужны? Ну, а что-то опять же обнаруживает раковые мутации, которые прежние методы не видели. Поздравим Google вот с такой вот декадой искусственного интеллекта. Крутые апдейты ноутбук LM. Давайте посмотрим, что новенького завезли. Во-первых, в сам

### [9:52](https://www.youtube.com/watch?v=hj_AuY5CPls&t=592s) Апдейты NotebookLM

ноутбук LM теперь есть у нас latex. Это вот этот вот математический язык и формулы, и просто гораздо более мм техническую, сложную и математическую работу можно с ноутбук Lм проводить. Вот вы здесь видите, он, пожалуйста, все эти формулы выдаёт. А дальше мобильное приложение. Прикольно обновилось, появилась возможность интернет, например, браузить и собирать некоторую информацию не просто по предоставленным источникам, но ещё и в интернет ходить. Дизайн новый в мобильном приложении. Вот такая вот красотенька. В видео оверзли нанобанану, а значит, они стали более прокачанные и более визуально качественные. Вы посмотрите, какая красота теперь есть. Да, если вы не знали, в ноутбук LM есть видео. Он не просто вам уже подкасты делает, а вовсю хреначатый визуальный ряд при помощи Нны бананой отныне. Чипы Opena теперь официально. Компания подтвердила, что она совместно с Брутком создаёт 10 ГВт

### [10:51](https://www.youtube.com/watch?v=hj_AuY5CPls&t=651s) OpenAI выпускает свои чипы

кастомных ускорителей, оптимизированных под чат GPT и другие модели. В первой половине двадцать шестого года всё это чудоработать, к двадцать девятому завершиться, и это увеличит вычислительную мощность Opena A в пять раз. Вот они тут дружной компашкой BRCOM и Opena собрались всё это пообсуждать. Есть подкаст на Ютубе. Интересно, что Грег Брокман, президент Open, заявляет, что модели чат GPT использовались для того, чтобы оптимизировать создание этих чипов. Мы достигли колоссального уменьшения площади кристаллов. модель нашла решение, которое инженеры искали бы неделями. Вот такой вот немножечко выпендрёж. Понятно, что отчасти съезжают сксистемы Nvidia, но с другой стороны, Nvidia используется для обучения моделей, а эти чипы Open всё-таки в первую очередь будут идти для инференса, где нагрузки стабильны, хорошо оптимизируются. И мы знаем, что с количеством продуктов OpenA, который всё ещё растёт и приобретает больше популярность, Infence крутой, мощный и надёжный действительно компании нужен. Ещё одно партнёрство на этой неделе небезызвестная компания вот такая вот вместе с ARM заключает сделку и

### [12:00](https://www.youtube.com/watch?v=hj_AuY5CPls&t=720s) Партнерство Meta и Arm

переползает на платформу ARM Neo которая будет адаптирована под облачные и нагрузки мета тоже хочет беспощадно масштабироваться 3 млрд пользователей им там нужны энергоэффективные вычисления конечно же тоже вот полный инференс всем ходом и маленечко отстраниться от Nvidia от AMD независимость хотят компаний все отстраняются от Nvid так или иначе. А Nvidia тем временем идёт беспощадно в

### [12:27](https://www.youtube.com/watch?v=hj_AuY5CPls&t=747s) Суперкомпьютер DGX Spark

пользовательский B2C сегмент. И наконец-то уже на этой неделе они зашипили, дали возможность купить тот самый ненаглядный DJX Spark персональный и суперкомпьютер. Это всего лишь 1,2 кг железяка коробочка, которая по мощности сопоставима с облачными устройствами на базе чипа GB10 Grace Blackwell. Там сумасшедшие всякие, ну, не сумасшедший, а сумасшедший петофлот производительности. 128 Гб объединённой памяти, скорость ити 200 Гб в секунды. И, конечно, стоит это всё 4. 000 долларов. Уже есть какие-то обзоры на Ютубе от зарубежных блогеров. То есть в целом людям в руки эта штука уже попала. До 200 млрд параметров модели вы на ней можете запускать и фантюнить до 70 млрд. Абсолютно сумасшедшие, э, показатели. Но с другой стороны, не очень-то понятно всё-таки зачем модель на 200 млрд не обгонит закрытую проприетарную облачную модель. И для кого это всё-таки всё делается? Ну, если такие два купить таких Blackла или шесть, и, ну, три давайте возьмём для начала, то может в этом уже будет какой-то смысл. И компьютер в руках каждого разработчика. Вот так вот говорит Hang локальный суверенитет вычислений. Не знаю, будет ли эта штука пользоваться популярностью. Круто, весело, задорно, дорого, но как будто бы моще какого-нибудь там Apple Silicon большей части населения и разработчиков, я думаю, хватает. У нас новый интересный бенчмарк HI. Может быть, не нароком, но Маск

### [14:00](https://www.youtube.com/watch?v=hj_AuY5CPls&t=840s) Новый бенчмарк: Grok 5

придумал, ну, во-первых, затезерил, что Грок П там уже тренируется, и он оценивает с десятипроцентной вероятностью, которая растёт, что Грок 5 будет AGI, и утверждает, что этот ГРОК 5 будет круче в и вычислениях, и исследовательской работе, чем Карпаты. Ну, тут посыпались уже шутки, что действительно, если какая-то модель круче, чем Карпаты, то это определённо HI. Кто-то такой Андрей Карпатый, автор небезызвестного термина вайпкодинг, но вообще изначально человек, который работал и в Тесла, и в Opena, и беспощадный крутой исследователь и визионер. Так что вот мы знаем из этой новости, что Грок 5 грядёт, не забывайте. И он должен быть круче, чем Карпаты, а значит AI. И пространство и времени. Платформа Medл, где пользователь делится клипами из видеоигр, запускает исследовательский и

### [14:51](https://www.youtube.com/watch?v=hj_AuY5CPls&t=891s) ИИ пространства и времени

startup General Intuition. Задача - создать фундаментальные модели с пространственновременным мышлением. И здесь, ребята, имея огромный датасет из того, как люди играют от первого лица, ну вели не от первого, в разные игрушки, всё это скармливают 2 млрд игровых видео от 10 млн пользователей. И модель на этом чуде обучается на визуальном вводе, смотрит глазами игрока, двигается, используя команды контроллера. Уже сейчас она способна действовать в новых ране невиданных мирах, а значит, к дронам и разным автономным системам. Эта модель подключаться может и может их питать. Помните, там фигур работает на Language action model, на Vision Language Action Model, что-то такое. Э, но там архитектура, которая включает в себе лмку, насколько я помню. Здесь эта штука целиком и полностью вот тренируется на видеоконтенте и вот навигации в этих пространствах. Так что пространственновременное мышление, друзья, станет недостающим звеном в AGI. Тексты описывают мир, но теряют ощущение его динамики. Истинный интеллект должен понимать движение, причинность и контекст. А теперь давайте дружно задумаемся, насколько наш с вами интеллект истинный. Люди, роботы, привет. С вами Игорян, и сегодня, как и всегда, обсудим новости креативных нейросетей последней недели. Я знаю, что после того, как на прошлой неделе я анонсировал это, вы все в нетерпении ждали ответ, случится ли оно, и у меня для вас хорошие новости. Круизы на катамаране Миджорни по заливу Сан-Франциско всё-таки состоятся. Ну а

### [16:25](https://www.youtube.com/watch?v=hj_AuY5CPls&t=985s) Обновление Veo 3.1 от Google

теперь серьёзно, наверное, самое громкое, что случилось на прошлой неделе - это выход Veo 3. 1. И такой вот у нас получается октябрь больших видеорелизов от больших компаний. Не только 3. 1 на самом деле сделали свой ход конём. И всё это в первую очередь, конечно же, ответы на ссору от Open AI, которая, хотя и не выдаёт очень крутого качества, но при этом взрывает соцсетию, очень хорошо понимает промпт. И в целом, ну, Open и A сделали хороший маркетинговый план с тем, чтобы вот на слуху у всех побыть. В целом и несовершенство тоже можно как-то там заапскейлить, заинхансить. В общем, это не так важно. Давайте обо всём по порядку. Veo 3. 1 преподносится как большое обновление Veo в какой-то степени так оно и есть, но обновление - это скорее не в плане качества, а в плане функционала. Качество, конечно, тоже стало лучше, но не прямо на голову, просто немного лучше. А в плане функционала, во-первых, они добавили возможность генерировать видео из ингредиентов, то есть из вот составных элементов. Взяли локацию, взяли персонажа, взяли одежду, соединили. получилось что-то новое. Во-вторых, возможность удлинять ваши клипы вплоть до 1ной минуты, между прочим. А в-третьих, то, что, наверное, самое, по моему мнению, интересно - это генерация между первым и последним кадром. То есть это добавляет, наверное, максимальный контроль над генерацией. И в целом это в любом уважающем себя инструменте должно быть, по моему мнению. А вот add o remove object, то есть добавление удаления объектов, тоже они как бы добавили, но по моему мнению оно работает крайне плохо. Ещё, кстати, на этой неделе у нас прошёл интенсив по видеогенерации, и там мы разобрали всё от теоретических основ до состояния индустрии на данный момент. И в целом получился очень классный интенсив, к которому у вас есть возможность получить доступ, но уже не в онлайн-формате, а в формате записи. Мы это всё укомплектовали в курс, поместили в бота, и теперь у нас есть такой прекраснейший мини-курс по видеогенерации, где мы объясняем всё, начиная от сценаристики, монтажа, раскадровок и превращение этого всего в видео и объединение всех этих знаний под эгидой, видео и игенерации. Короче, это очень классный продукт, как для новичков, так и для тех, кто просто хочет расширить свой кругозор в плане создания видео, видеогенерации. И в общем, не буду затягивать, можете перейти по ссылке, которую найдёте

### [18:55](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1135s) Ответ OpenAI: обновление Sora 2

внизу. И в ответ на Veo 3. 1 уже Open AI опять отвечают Сосорой, новым обновлением Sore 2, которое позволяет создавать сториборды, то есть такие раскадровки. Во, постил у себя в Telegram-канале креативный совет. В общем, возможность так вот прописывать отдельные сцены, прописывать, сколько эта сцена будет длиться. А также теперь бесплатным подписчикам можно видео генерировать вплоть до 15 секунд, а платным до 25. Платные - это, если что, владельцы проподписок Open AI за 200 долларов в месяц. А далее Runway Apps. В

### [19:29](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1169s) Новые приложения Runway Apps

одном из недавних выпусков я говорил про то, что Runway планируют как-то очень сильно расширить возможности взаимодействия с видеогенераторами. И это, я так понимаю, первый шаг, точно не финальный, потому что в перспективе, я так понимаю, они вообще хотят создать какой-то уникальный UI. А вот это вот то, что мы видим сейчас, ээ, такой первый шаг. Они создают apps, то есть приложуньки. По сути, это всё, что у них есть, но просто помещённое как бы в отдельные приложения. Я думаю, это вот как раз такой первый шаг для того, чтобы потом какой-то универсальный агент, например, это мог всё более удобно использовать или, в общем, как-то это всё в одной среде было объединено. Можно у них тоже удалять из видео. И работает это, кстати, насколько я понимаю, лучше, чем Veo, но всё равно не идеально даже близко. Решты продуктов, то есть продукты там в других условиях можно, но это неинтересно. Диалоги, в общем, загружаем там что-нибудь. Upscale видео, кстати, очень хорошие у них. И вот видео из ссоры, например, врановые прекрасно обскейлится или можно стилем менять, что тоже неплохо, потому что в ссоре можно классно движение прописывать промптами, они будут правильно достаточно показываться в согласии с тем, что мы написали. А тут потом это можно во что угодно другое превращать, но в основном всё-таки обскейлить. Просто в догонку

### [20:55](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1255s) Эффекты в Runway: погода и время

они успели ещё накинуть эффектов. Вот тут погоду, время года можно менять теперь. Очень классно. Это по сути, э как бы другая грань рестайлинга. То есть это рестайлинг и есть на самом деле. Ещё можно менять фон в видео, что тоже в целом является рестайлингом. Время дня, не поверьте, тоже рестайлинг. Короче, идут по пути пики и Хиксилда. Вот, накидывая огромное количество разных приколов. Но всё-таки, мне кажется, что в случае это для какой-то цели глобальной, которую мы в скором времени увидим. И не просто в общем хайп и не просто упрощение интерфейса. Хотя и упрощение интерфейса - это тоже замечательная штука. Как бы люди будут понимать, что вот то, что мне нужно сделать, это там не какой-то рестайлинг, а вот конкретно есть инструмент там поменять погоду, поменять освещение, время дня и так далее. Ещё вышла

### [21:47](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1307s) Новая нейросеть RiverFlow

нейросеть Риверфлоу, и это очередная убийца Нанобана. Вот так вот прямо на первое место она взобралась. Нанобанану обогналась, Сидрим обогнала, Квен всех, в общем, она уделала. И уделала, причём с таким, ну, не прямо огромным, но с достаточно большим отрывом. Забавно, что разработали её Sourceful - это некая британская компания, которая вообще создаёт брендинки, айдентики, но в основном даже упаковки. То есть это приложуха для дизайна упаковок. И они вот выпускают суперпередовую нейросеть, которая гугловски и все другие, в общем, варианты обгоняет. Это достаточно прикольно, необычно. Но то, что странно- это то, что у меня лично наtificial анаalлиis арене её нету. И ээ её нету ровно с момента, как я в свой Telegram-канал Креативный совет написал пост. я его написал, опубликовал и со скрином, который сам сделал. После этого она исчезла, и при этом я не вижу никаких э в общем опровержений того, что оно существует. В общем, для меня это чуть-чуть непонятная история, которая вот, может быть, нужно ещё поинспектировать поглубже. Либо, может, если вы знаете, что же это такое, почему оно так, напишите в комментариях под роликом обязательно. Да. Ну и люди, кстати, отмечают, что с одной стороны модель хорошо понимает промпт, то есть вот, например, Сидрим, что у нас что-то корявенькое сделал такое. Нанобана не написала roomм, хотя в промсе оно было. Риверфлоу сделал, но, честно говоря, шестёрка, конечно, тут не так вписывается по шрифту в этот номер, но не суть. Суть-то в том, что люди просто говорят, что промпт она очень хорошо понимает, поэтому она так высоко и забралась, но качество всё-таки оставляет желать лучшего. То есть немножко повторяется ситуация с Рева, да, в целом и с нано бананой. Пока что мы вот инструмента со сверхрошим качеством не получили. Вероятно, даже седрим по качеству всех уделывает, хотя по этому примеру так не скажешь. А

### [23:52](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1432s) Google добавил Nanobanana в поиск

Google взял и добавил нанобанану в поисковик зачем-то. Вот нанобана бесплатно в поисковике. До этого тоже бы была бесплатно, но не в поисковике. А тут ещё кандинский 5 виделай вышел. Как

### [24:03](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1443s) Вышел Kandinsky 5 Video Lite

бы я не хейтил российский нейросети, Кандинский меня всегда очень сильно радовал и давно не было от них новостей. Когда-то вообще я очень сильно фанател от Кандинского. Он там чуть ли не лучший импеinнг вообще в нише делал, но было это давно. В общем, времена Кандинского как будто бы проходили. И тут выходит 5. 0, которая занимает очень интересную нишу. С одной стороны, модель выдаёт, ну, вообще непримечательные результаты, на которые интересно смотреть. С другой же стороны, моделька супермаленькая, всего 2 млрд параметров. При этом на бенчмарках она обходит One 2. 2, который 14 млрд параметров. Короче, это очень крутой результат. И если вы хотите запускать модель, чтобы она очень быстро генерировала, вообще не тратила э ресурсов, то это очень крутой результат. Видимо, даже лучший результат в нише сейчас вот в мире, который у нас есть. Поэтому, хоть это и не конкурент Сосоры Veo и так далее, но свою нишу оно занимает и, в общем, смысл имеет, хоть я и не прямо понимаю какой, скорее всё-таки какой-то научно-исследовательский, но не прямо уж прикладной. Правда, люди для всего найдут применение, поэтому посмотрим. Добро. Это, кстати, уже и в Кофui засунули. И 3D миры теперь открыты.

### [25:21](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1521s) 3D-миры в Open Source

Hньan - это компания, которая делает лучшие в мире 3D-модели и лучшие в мире 3D пространства, то есть 3D миры, выпускает в open high quality 3D Worlds за 5 секунд с одним GPU. Выглядит, как вы видите, достаточно качественно. Flash World модель называется. Поэтому, если дома хотите свой метаврсик на коленке сделать, то вот это прекрасное начало для этой затеи. И вообще, на самом деле, в последнее время всё больше и больше новостей про то, что это в Open source, то очень-очень много всего у нас в Open source. Вот даже такой прикольный тредик, в общем, есть о том, что за

### [26:06](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1566s) Бум Open Source моделей

последние 90 дней на Хагингфейсе был создан 1 млн новых openсоourсных AI репозиториев. NVIDIA тут всех уделывает, несмотря на то, что компания исторически занималась хардвером, тут она как бы у неё столько мощностей появилось лишних, что грех и совну-то свою не поделать. Ну и в общем, с графиком можете ознакомиться. Хорошо, что в Онрсе всего много, хоть, вероятно, и AGI или там SAI неожиданно в подвале какой-нибудь умелец случайно создаст, и с этого домик-то наш и порушится. Надеюсь, нет. И последняя

### [26:43](https://www.youtube.com/watch?v=hj_AuY5CPls&t=1603s) Робо-рука для...

новость этой недели. Вот на экране у вас, смотрите, это мне однозначно нужно. Беру. Ну, не прямо это. Ладно, поколение третье, наверное, вот этой роборуки точно нужно мне будет домой перед раковиной поставить. И на этом сегодняшние новости подходят к концу. С вами был Игорян, дядя Д. Продуктивный совет. Обязательно ставьте ваши лайки, подписки, колокольчики и пишите комментарии. Переходите в ресурсы наши в Telegram, в другие социальные сети и увидимся там, потому что там мы намного активнее и чаще выпускаем видео, чем на Ютбе. точнее, не видео, а контент. Вчера, например, делал пост о том, как создавалась обложка для этого ролика и названия. В общем, как мы повышаем CR, прорабатываем его. Короче, ресурсы у нас все по ссылкам в описании. Там и информация полезная, и юмор, и всё общее, что вы захотите. И увидимся на следующей неделе. Пока.

---
*Источник: https://ekstraktznaniy.ru/video/15567*