Новости ИИ: Claude копирует Openclaw, Midjourney v8, Скандал вокруг Cursor
37:50

Новости ИИ: Claude копирует Openclaw, Midjourney v8, Скандал вокруг Cursor

Продуктивный Совет 22.03.2026 11 534 просмотров 337 лайков

Machine-readable: Markdown · JSON API · Site index

Поделиться Telegram VK Бот
Транскрипт Скачать .md
Анализ с AI
Описание видео
Новости Нейросетей: Новые модели GPT-5.4 mini и nano от OpenAI, скандал вокруг модели Composer от Cursor, мощнейшие анонсы с конференции Nvidia GTC 2026, Claude Code превратился в полноценный OpenClaw. Если вас интересуют нейросети, ии-агенты искусственный интеллект, Nvidia , ChatGPT, Claude Code и всё, что связано с ИИ, этот выпуск — ваш универсальный гид по последним трендам. Погнали! 🔥 CLI Агенты + Вайб-кодинг по скидке! – https://t.me/how2ai_bot?start=dl-17741629993b7f582abc1b Реклама. ИП "Гаврилов Даниил Сергеевич" erid: CQH36pWzJqV7DdPpZ79Dcpiu1XLz73xPepumD4ZV7bLzGy #ии #нейросети #chatgpt Тайм-коды: 00:00 – Интро 00:51 – GPT-5.4 mini и nano 02:30 – Сэм Альтман и мемы 03:12 – Claude Code теперь Openclaw 07:07 – Nvidia GTC 2026 09:38 – DGX Station на вашем столе 10:39 – Apple против vibe-кодинга 12:50 – Gstack: хайп и хейт 13:39 – Скандал вокруг Cursor 15:25 – Google прокачал AI-сутдио 16:00 – MiniMax M2.7: Агентный апгрейд 16:50 – OpenAI покупает Astral 17:49 – Берни Сандерс снова мем 18:39 – Новости креативных нейросетей 18:46 – SkyReels v4: новый лидер в генерации видео 20:25 – Seedance 2.0: почему лучшая видео-модель до сих пор недоступна 21:55 – Stitch Beta от Google: ИИ-помощник для вайб-дизайнинга 23:41 – Adobe + NVIDIA: новые модели Firefly и кастомные Лоры 25:22 – Midjourney v8: что нового в релизе 27:02 – Microsoft MAI image 2 27:55 – Krea: Node Agent и мобильное приложение для iOS 29:16 – Picsart: маркетплейс с ИИ-ассистентами 30:00 – LTX Studio даббинг 30:53 – Gamma Imagine: генерация инфографики для презентаций 31:31 – Новый видео-агент от PixVerse 32:14 – NVIDIA DLSS 5: революция или подмена визуала? 33:42 – Teleport 360: создаем 3D-копию своего дома 36:01 – RAG для видеогенераторов 37:11 – Аутро Бусти – https://boosty.to/prodadvice/single-payment/donation/535968/target?share=target_link Тг How2AI – https://t.me/How2AI Тг чат How2AI – https://t.me/how_to_AI Тг Креативный Совет – https://t.me/creadvice 🥸 Личный тг Дяди Д – https://t.me/true_dyadya_d

Оглавление (29 сегментов)

Интро

Теперь Клод - это полноценное Openкло. Антропики выпускают кучу обновлений для конкуренции с клешнёй. Новые шустрые модели GPT54 Mini и Nano от Open AI. Mi Journродилась моделью версии 8. Смотрим на релиз и оцениваем результаты. NVIDIA GTC 2026. Куртка тоже выпускает Open Clo, но безопасный и куча других обновлений от компании. Ну и, конечно, драма вокруг курсора их новой модели Коoser. Почему Apple блокирует вайп-кодинг приложения в App Store? И главные мемы этой недели. Люди, роботы, привет. Это Продсовет. Меня зовут дядя Д. Всё самое важное, свежее и полезное за эту неделю для вас собрали в контексте искусственного интеллекта и неросетей. Обсудим все эти новости. А вы пока подпишитесь на канал, поставьте лайк, оставьте коммент, чтобы поддержать выход новых выпусков. Let's go. GPT 5. 4

GPT-5.4 mini и nano

mini и Nano для продакшена. Быстрый, дешёвый, сладкий в версии линейки 54. Ну, понятная история, были мини и nномодельки, когда ещё была GPT5, а потом с выходом этих новых итераций GPT52 3 кок и вот четыре не было крошечных моделей. Opena исправилась. В принципе, это нужно для того, чтобы запускать субагентов, потому что в кодексе появились субагенты. большое количество задач, там навигация по котбази, какие-то дебаги, быстрые итерации. Всё это можно делать при помощи GPT 54 mini, например, X. И вот здесь посмотрите на бенчмарке. Достаточно плотно и близко по бенчам идёт модель к своей старшей версии. Ну, Наномалышка, тут понятно, ничего от неё ожидать большого не стоит, но, например, на OS World Verified, то есть использование компьютера, навигация в браузере GPT54 Mini X очень и очень хорошо себя показывает, отставая всего лишь там на три чуть меньше процентных пункта. Вот здесь можете посмотреть такие сравнения по стоимости моделей, по их скорости, по их точности. GPT 5. 4 примерно такая же по отношению скорости и точности, как и маленькие версии, но понятно, она всё-таки дороже. В общем, хороший интересный релиз. Цена в API 0,75,4,5 доллара за миллион инpute output токенов у модели mini, у nano вообще 20 центов и 1,25 за милн input output. А ещё у Мини контекстное окно 400. 000 поддержка текст и идж инпутов. Инструменты используют в файлах в вебе смотрит. В общем, полная красота. И в кодексе тоже она лимиты расходует не так быстро и не так много, как полная версия. Сам Альтман тем

Сэм Альтман и мемы

временем вызвал не то чтобы уж прямо волну и бурю хейта, но определённое его количество точно, потому что он в Твиттере опубликовал искреннюю благодарность. Хочется верить к людям, которые писали код руками, как он говорит, рактер byрактер, символ за символом. Благодаря вам мы теперь можем совершать невероятные штуки. Ну и, конечно же, общественность немножечко занегодовала. Ну вот такими, например, мимасами и вот такими вот и вот такими вот. Ну и, в общем, в целом большим количество комментариев у Альтмана под этим твитом, потому что он выглядит несколько как будто бы высокомерно и издевательски над теми разработчиками, которые всё писали руками, а вот сейчас, например, их уже иишки заменяют. Ну

Claude Code теперь Openclaw

клодко, конечно, делает вещи. В принципе, такое ощущение, что компания прямо совершила так называемый пиво в сторону удалённой работы с кодинговыми агентами после того, как они захейтили OpenClo. Open Claхейтил их. Ну, в общем, ребята, не нашли общий язык. У clДКОД теперь есть функция channels, и вы можете в своём клод-коде на компьютере ввести команду, которая активирует вот эти вот каналы передачи данных на, например, в ваш там Telegram топик, Telegram бота подтягиваете либо в Discord. То есть сейчас можно уже, в принципе, пользоваться точно так же клодко-кодом, как и OpenC, с телефона, с Telegramтопика и спокойненько себе кодить. Единственное, что, конечно, вам нужно где-то этот кд-код держать открытым. То есть это не такая persistent вот постоянно 24x7 версия. Тем не менее большему количеству людей, возможно, этого-то и хватит. И в то же время появился ещё clд dispatch для коворка. Эта функция уже была для clД код, но теперь она появилась и в коворке. Здесь вы уже не к стороннему приложению подвязываете свой клодкод или clд cвоork, а в приложении официальном нативном антропика клод на телефоне запускаете его. То есть опять же сессия идёт на компьютере, ну и коммуникация вам передаётся и на телефон. То есть, в принципе, теперь вы можете пользоваться и коворком, и клод-кодом своего телефона. Либо из приложения CLДКОД, либо даже из Телеграма. Но ещё стоит отметить, друзья, что на неделе я выпустил вот такой вот чудненький ролик про ACP агентов. Это о том, как тоже привязать клод-код к вашему Телеграму, конкретному топику. И здесь фишка в том, что не только клодко-код можно привязать, но и кодекс, ну, или вообще любой агентный harness. Более того, можно заставить OpenCl промтить ваши агентные кодинговые харсы и настраивать различные автоматизации по таймингу или не только по таймингу. В общем, тема немножко сложная, но достаточно интересная. Поэтому, если наш ролик ещё на канале не видели, то сходите, посмотрите. Ещё из приятного в Кудкод появился 1 млн контекстного окна, наконец-таки у модели Opus 4. 6. Можно это всё в интерфейсе выбрать. А ещё интересную такую штуковину я увидел. Оказывается, когда вы делаете скил, вы можете добавить туда вот этот параметр под названием контекст. Если его значение будет фор, тогда запускает этот скилл по сути создаться субагент, ну либо дочерняя сессия, где произойдёт работа по этому скилу. Потом вся информация вернётся в главного агента. То есть, в принципе, это субагент, но через скилл. В общем, такая история немножечко замудренная и запудренная. Не знаю, нужно ли оно вам, но может быть в каких-то юзкейсах прошаренные юзеры будут пользоваться. Ну и, друзья, далеко не уходя от этой темы, я напомню вам, что нужно оборачивать свою работу в агентный слой. Потому что если вы этого не делаете и ручками по-прежнему совершаете разные рутинные задачи в эксеэльке там что-то ковыряете или контент пишете или даже видео монтируете, сейчас огромное количество работы можно автоматизировать при помощи и агентов. И у нас есть подробный образовательный материал о том, как это делать. У нас был интенсив, мы сделали записи, сделали методички по игентам 2026. Мы там разбираем и Open CД, и ClotД, и разные open sourceные варианты, и Open Cl учимся настраивать. То есть так я полноценную базу даю о том, как использовать и агентов для автоматизации своей рутины сегодня. Только под этим роликом есть ссылочка на скидку на этот курс, поэтому если вы счастливый зритель этого ролика, то можете его по скидке приобрести. И также мы ещё туда добавили и сделали такой бандл подарочный. Можно приобрести наш курс по вайп-кодингу тоже. Это хорошая база, фундамент, который вам ещё лучше и больше поможет разобраться в и агентах, и автоматизациях. Например, у меня есть и агент, который берёт записи наших эфиров. Он их самостоятельно просматривает, вырезает ненужные бла-бла, куски, всякие ошибки и организационную информацию, делает новый ролик, по нему делает методичку и всё это складывает меня в отдельную папочку и потом ещё формирует полноценный курс. Не тратьте время не зря, увеличивайте свою продуктивность при помощи и агентов. Сейчас самое время этим заниматься. GTC 2026 прошёл несколько

Nvidia GTC 2026

интересных анонсов и событий с ивента. NVIDIA говорит о том, что у них нетворкинг направление - это теперь второй по размеру бизнес после компьюта. Это тот сегмент, который начал расти недавно. И ДН очень заблаговременно понял, что это будет пользоваться спросом и много денег здесь можно заработать, потому что AI датацентры большие. Все эти сложные чипы нужно связывать для того, чтобы беспощадно тренировать и Infity, и модели. И там тоже очень много технологий сложных и инженерии закопано и пользуются спросом. Год к году рост составил 260%. По итогам года выручка дошла до более чем 31 млрд долларов. NVIDIA купила компанию Milanox, и у неё там есть большое количество разных инструментов благодаря этому, которые сейчас и используются. Ну и более того, Хуан говорит, что в принципе ээ рынок может дать Nvidю не 500 млрд, как предполагалось, а уже триллион до 2027 года. Говорит, что спрос на и инфраструктуру растёт бешеными темпами и быстрее ожиданий. И Nvidia, конечно, уже начнёт поставки совсем скоро своего нового суперкомпьютера. Можно, наверное, так его назвать. Вера Rubin это вот такая сумасшедшая штуковина Rubin плаatфор, которая состоит из большого количества разнообразных чипов. Они все упаковываются вот в такие кластеры. Эти кластеры тоже потом связываются. Чтобы вы понимали, Вера Ruбин достигает вычислительной мощности на уровне пдесятафлоops. Какой-нибудь средненький там Mac на M3 в 3,6 млн раз меньше достигает вычислительной мощности. По сравнению с BlackВ - это прирост 3,2 в обучении модели, пять в Infнсе. Ну и компании готовы отрывать просто с руками, с клешнями и с проводами вот эти чипы у NVIDIA. Тем временем ДНС анонсировал Nem. Это такая больше корпоративная платформа, которая на базе OpenClow построена с акцентом на безопасность и приватность. Я не думаю, что стоит на этом долго останавливаться. Единственное, что прикольно, возможно, там будет какая-то классная интеграция с их хардверной архитектурой, но как бы базово это всё находится там в альфа-версии, и доступа мало у кого есть. Ну и вряд ли нам, рядовым юзерам, это сейчас будет интересно. И вот такие DJXшены Nvidia уже начала поставлять и делают такую, наверное, промокомпанию, раздавая это крутым и речерам, и энтузиастам. Вот Андрею Карпаты прилетела такая чудесная коробочка с автографом от Днен Хуанга. Это

DGX Station на вашем столе

называется DJX Station. И, чтобы вы понимали, 748 ГБ объединённой памяти, производительность до 20 пефS, поддержка моделей до 1 триллинна параметров. Вот по такой коробочке в каждый дом, и тогда эраса действительно настанет. На всей конференции фокус был сделан на такой стек AI фабрики. Это и компьютер, и хранение, и нетворкинг, и регистрация, агентный софт. Главный месседж: инфраструктурная гонка ускоряется, узкие места смещаются от чипов к памяти, сети и управлению infence нагрузкой. Конечно же, Nvidia там ещё и про автомобили говорила, и про Physical AI, про их системы космос и SCКГУ, все эти модели мира, которые позволяют роботов тренировать различные симуляции. Много всего интересного было представлено. Ну вот, например, такой чудесный робот, который и пультом управляет, и даже ещё аудиторию своими клешнями качает. Ну красота ведь, не правда ли? Apple

Apple против vibe-кодинга

незаметно приостановила обновление App Store для приложений вайпкодинга. Вот такая вот новость проскочила на неделе. В первую очередь это коснулось реплита и конструктор мобильных приложений Vipecд. Я видел несколько, конечно, таких стартапчиков, которые прямо заряжали эту идею о том, что всё, не нужно совершенно больше ничего скачивать. Software on Demand. Вы заходите по промту делаете приложение, а Apple такие: "Комсито кто будет платить за все эти приложения? " Поэтому, конечно, яблоку это не очень нравится. Хейтят они все эти задумки. Как это будут обходить напримерт, понятия пока что не имею, но вот Apple говорит, что нужно удалить возможность генерации программного обеспечения конкретно на устройствах. То есть, чтобы, например, в интерфейсе появлялась эта превьюшка, ну, в браузере, пардон, а не они а непосредственно в самом приложени. Тем временем ребята менее доминантные в этой мобильной индустрии говорят обратное. Смартфоны уйдут от модели экран плюс иконки плюс приложения. по версии главы nothing, компании, которая в смартфончике производит. Главную работу будут делать и агенты, которые будут понимать намерение выполнять задачи вообще без ручной навигации по меню, потому что текущий UI, который приспособлен для человека, он не должен и не может в должной мере отвечать потребностям и агентов. нужен отдельный слой интерфейса, который заточен под AI, чтобы выполнять задачи напрямую без лишних шагов, без вот этих вот скучных открытий того приложения, создания какого-нибудь бронирования в другом. Нужен какой-то сквозной поток. Посмотрим, к чему это приведёт. Но я, в принципе, с этим очень солидарен и как раз-таки вокруг своей деятельности сейчас вот всё такое и выстраиваю. Я пытаюсь сделать так, в каких-то роликах я тоже говорил это, чтобы моим интерфейсом, взаимодействием с любой программой был чат, интерфейс чата. с агентом. И оттуда я уже пуляю ему разные запросы. Он открывает приложение, пишет текст, выполняет разные запросы в какие-то инструменты, возвращает мне ответы и так далее. Причём можно всё быстро голосом надиктовать. Это действительно другая совсем парадигма взаимодействия с софтиной. Надеюсь, вы тоже от этой повестки не отстаёте.

Gstack: хайп и хейт

Gstack хаype и хейт. Garриitan - это SEO Y комбиinat, между прочим, выложил в Open source свой сетап для клодкода под названием Gstack. Там, по сути, можете зайти на GitHub, на его страничку и посмотреть, что это такое. Просто набор протов, набор скилов. Ну, там и есть всякие ещё хуки прикольные. Ну, есть интересные решения. Чуть-чуть быстро проскимил это всё дело, но проект стал достаточно вирусным. 30. 000 звёзд набрал, но в то же время большую волну критики получил, потому что есть определённые баги, нету хороших гардрейлов для безопасности. Это набор промтов и хайп как будто бы поднялся только из-за того, что вот известный дядечка всё это выложил. В принципе, интересно посмотреть. Опять же, вот можно зайти на гитхапчик, тыкнуть, глянуть, полистать. Разные есть интересные промты, может быть, что-то себе в свои флоу рабочий тоже и загонить. Ну, с композером такая

Скандал вокруг Cursor

вечеринка произошла. Скандал. Дело в том, что вышел курсор Композер 2 на неделе. И, ну, я вам сразу пролистаю. Хорошие достаточно бенчмарки прикольно сравнились со своими, ну, предыдущими версиями. Ну, здесь о'кей, есть и Opus, и GPT High курсор Bench, на внутреннем бенчмарке говорят, что по цене и по результативности очень-очень хорошо и плотно себя показывают. Ну и такие Бенчи тоже. И буквально через день команда Moon Shot - это разработчики модели KI, заметили в ответ HPI идентификатор вот такой вот. Ну то есть это была и есть моделька 2 с и даже не изменили никакое название, как будто просто вкорячили модель. Про неё в блокпосте, в релизе ничего не рассказали. Ну а вот так вот это всё всплыло наружу. По итогу ряд разработчиков из Муншота выявили публичные, опубликовали публичные претензии к курсору. Но после этого, через несколько часов всё это поудаляли. И позже уже сам Кими вышел мууншот вышел вот с таким заявлением, что всё о'кей. Мы поздравляем команду Курсора с тем, что вы использовали и рады, что вы использовали, гордимся, что вы использовали нашу модель как foundation модель для того, чтобы там её ещё дотренировать и использовать в своём сервисе. И вообще вы большие молодцы. Есть ощущение, что курсор не намеревался всем показывать на основе чего сделана их новая модель. Но когда это всё всплыло, быстренько там как-то порешали, договорились и обе стороны удовлетворили, видимо, свои конфликты и вопросы и вышли с таким заявлением. По итогу всё-таки оказалось, что курсор даже не нарушил никакие лицензии, потому что использовалка 2 через некий Fireworks AIHQ. Всё там было с точки зрения легальной о'кей, с точки зрения этической, не уверен. Ну и, конечно, вот такое количество мемов сразу подъехало.

Google прокачал AI-сутдио

Google прокачивает кодинг в эту Studi собирать приложение и с фронтом, и с беком прямо в рабочем окне. Вроде что-то похожее было, но теперь такой прямо фулстак добавили прямо в чате. Показали в демо Geos Seeker Realtime приложение с логикой компас интеграции в Google Maps. К внешним API Studia может подключаться базам данных, платёжным сервисам. Агент помнит контекст, на это тоже делают фокус. Встроена настройка Firebase для Cloud Firest Store, аутентификации пользователей. В общем, полноценные приложения можно создавать теперь внутри Google A Studia. Вот в этом вайпкодерском интерфейсе. Minim Max M2. 7

MiniMax M2.7: Агентный апгрейд

агентный апгрейд. Компания говорит, что это первая модель, которая обучалась с участием собственных процессов. Ну, то есть они брали предыдущую версию модели и использовали часть её аупутов для того, чтобы обучить модель вот эту вот. Winrate 88% против предыдущей версии модели. Сильный кодинг, как всегда. Агенты, навыки, полный фарш, tool в очередной раз заряжают все эти релизы для того, чтобы использовать в сложных агентных многоступенчатых workflow. Ну и причём кажется, что Openк уже стал вот таким вот своего рода банчмарком. Говорят, что Openкло себя показывает очень классно. И несколько вот таких ещё нашёл примеров. Во фронт точно модели шарашит очень хорошо. Посмотрите, буквально с одного промтат делать такие бешеные интерфейсы. Ну и вот такие вот, например. Что это вообще за красота? Я бы даже такое и не придумал, честно говоря. Open покупает Astral. Это

OpenAI покупает Astral

команда, которая стоит за рядом кодерских инструментов. UV RA TY ни разу не слышал. ускорить развитие кодекса, встроить и глубже в реальный workкfлоow разработчика, не только в генерацию кода. Вообще вот выпустили почему-то Open такой коротенький абсолютно постик в X о том, что кодекс чуть-чуть в более широкое приложение, нежели приложение для работы с кодом. Собственно, я это как бы тоже пропагандирую на нашем курсе говорю, что, ребята, используйте кодекс. Это очень, честно говоря, удобный, отличный интерфейс и все те же функции кода и open кода закрывает. И OpenA мою тут мысль тоже подтверждают. Возможно, они вообще какое-то такое, знаете, мегаприложение сделают, куда вкорячут абсолютно разные процессы автоматизации вашей жизнедеятельности. Посмотрим, во что это превратится. И мне кажется, я не сказал, в кодексе появились субагенты. Я почему-то вот сейчас захожу, захожу в него и что-то никак не могу найти этих субагентов, но они появились. Так что если найду после записи ролика вкорячу сюда.

Берни Сандерс снова мем

сюда. Ну и, наконец, Берни Сандер стал новым поводом для мемов. Может, вы видели вот такой вот мемчик. I once again asking называется. Но в этот раз, на этой неделе, он поговорил на вот такой, смотрите, железной длиннючей палки посадил Клод и пообщался с ним о том, как вообще искусственный интеллект влияет на американцев, на демократию, на распространение информации, на приватность и всякое такое. Ну достаточно бестолковый, честно говоря, разговор. Вот тоже, например, вот так это всё было обыграно дальше в сети. Поэтому, ну, забавно. Ээ, может быть, антропики начнут вот такую железную палку на этом хайпе продавать. Мне кажется, каким-то спросом пользоваться будет. На кухне себе такой поставлю. Будет у меня клод собеседником во время еды. Спасибо, что были сегодня со мной. Переходим к новостям творческих нейросетей. Люди-роботы, привет. С вами

Новости креативных нейросетей

как всегда Игорян. И как всегда обсуждаем новости креативных нейросетей последней недели. Первое, о чём мне

SkyReels v4: новый лидер в генерации видео

хочется рассказать - это новый релиз Skyrels версии 4, которая занимает уверенные лидирующие, ну, точнее около лидирующие позиции на арене тексту видео нейросетей. Точнее, первое место в тексту видео, четвёртое в image to видео с генерацией аудио и седьмое без аудио. Правда, в тексту видео модель с момента выхода новости уже успела сползти на второе место. Но вообще на вход модель может понимать не только текст и изображения, но и видеореференсы, аудиореференсы и вроде как даже маски. Генерируют модель до 15 секунд в 1080 пи 32 fps. Видеоэдитинга, то есть редактирование видео в привычном нам понимании, которое предоставляет клинк омни. тут, к сожалению, нету. Зато можно загрузить свой видос и продлить его до 15 секунд. Таким образом, мы берём десятисекундный ролик, продлеваем его до 15 секунд, обрезаем последние 10 секунд, продлеваем ещё до 15 секунд и таким образом, как я понимаю, можно делать до бесконечности. Плюс хороший перенос движения, перенос мимики и перенос движения камеры сцены. Пока что, к сожалению, не все функции доступны. Их будут релизить постепенно. И как только их лизнут все, я с удовольствием сделаю ролик, покажу вообще на что способна эта модель. Пока что тут, ну, не дурной, достаточно приятный имидж и тексту видео, который генерирует хорошие видосы с малым количеством артефактов. Ан 2. 0

Seedance 2.0: почему лучшая видео-модель до сих пор недоступна

теперь доступен в Бубио или, вернее сказать, Бабио. Короче, название в любом случае забавное, и я, на самом деле, эту новость сюда добавил именно из-за того, что тут забавное название. Как вы знаете, Sed - это лучшая в перспективе модель для генерации видео, которая вот сейчас есть, но не до конца есть. Её в феврале релизили, показывали там в бета-тестах и так далее. Но после этого компанию завалили огромным количеством исков, потому что она идеально переносила какие-то голливудские сцены, лица голливудских актёров и так далее. Короче, собственность в больших голливудских студий. И сейчас они всё никак не могут до конца выйти. То есть огромное количество провайдеров, которые предоставляют вам доступ к тому, чтобы попользоваться седнсом. Но, к сожалению, везде функционал будет очень урезан. То есть в некоторых местах, как я понимаю, дают вообще какие-то маленькие вычисления или младшие версии модели, я до конца сам не понимаю. Но видео получаются не так, как в видосах, которые генерируют другие пользователи, а с большим количеством артефактов. Там же, где получаются вот такие вот приятные видосы с малым количеством артефактов и хорошей физикой, к сожалению, доступен только тексту, видеорежим, которым, ну, вообще никому особо не нужно пользоваться, если мы не хотим тестировать то, насколько мало артефактов в видосах, которые генерируют модель. Короче, Sedence 2 - это очень круто должно быть, но модель всё никак не может нормально выйти, чтобы вот попользоваться можно было функционалом, который она нам предоставляет. Стч бета

Stitch Beta от Google: ИИ-помощник для вайб-дизайнинга

от Google. Что же это такое? Сч - это такой умный AI can канвас, то есть гугловский LLM, специально заточенный на то, чтобы создавать дизайн. Как-то с вами советуются, а точнее, вы советуетесь с ними, они дают вам подсказки, вы определяете всё, что нужно определить для того, чтобы сделать успешный дизайн. После чего делаете, а точнее за вас это делает стич. По сути, можно сказать, что это вайб-дизайнинг, вот в том виде, в котором он должен быть. Потому что тут, в отличие от обычных сервисов, у нас есть удобный канвас. А чтобы работать с дизайном, нам, конечно же, нужно всё перед глазами видеть и иметь возможность там возвращаться к старым версиям, делать несколько вариаций того, что вы хотите сделать. Короче, тут это вот всё есть. Помимо этого есть замечательный voice modд. Помимо того, что вы, естественно, можете наговаривать промпт, ещё и сама модель может смотреть, что же вы делаете в данный момент, и давать какие-то советы, критику, рекомендации относительно того, что она видит. Короче, стич, как я понимаю, - это что-то максимально приближенное к тому, чтобы, ну, реально заменять дизайнеров. Если обычные вайп-кодингрешения нужны скорее для того, чтобы всякие синьоры или мидлы делали работу быстрее, меньше тратили время на рутину, то вот эта вот история помогает джунам или вообще людям без опыта создавать, ну, насколько-то плюс-минус рабочие системы. И это, по мне, конечно же, очень круто. Одна часть меня, конечно же, не гадует, но, блин, не для этого ли нам нужны нейросети, ни вот это ли тот дивный, прекрасный новый мир, в который мы с вами движемся? Вот такое вот добро, например, создаёт Стич. В целом это можно было сделать и раньше, но теперь у нас удобный канвасс. Рекомендации, короче, вы поняли. Адоob

Adobe + NVIDIA: новые модели Firefly и кастомные Лоры

заключают партнёрство с NVD. В перспективе нас ждут новые Firefly модели. Конечно, это и так должно было быть, но теперь они будут ещё лучше, потому что ещё больше ресурсов у Адоби будет. И в общем, кто бы что ни говорил, AdOBE является очень серьёзным конкурентом на поприще AI инструментов, AI креативных инструментов. Просто за счёт того, что у них как минимум есть огромное количество платформ, связанная экосистема для того, чтобы эти штуки внедрять. И прямой доступ к тем, кому эти штуки нужны, теперь же ещё у них есть и замечательные возможности для того, чтобы это всё дело тренировать. Поэтому я, честно говоря, не удивлюсь, если через пару лет Нано банана, там пть, например, будет особо никому не нужна, и все будут пользоваться ей только через API, а большинство профессионалов будут использовать именно нейросети от Adдоobe. Пока что я напомню вам, что компания Adobe добавляет нейросети от Гугла и конкурентов, например, ещё Flx в свои передовые сервисы, такие как Photoshop. Но, думаю, это до поры до времени, пока они не могут оказать достойного сопротивления. Помимо этого, Adobe создаёт возможность тренировать свои модели. Не знаю, насколько это связано с прошлой новостью. Думаю, не прямо, но теперь компания запускает публичную бету Firefly Custom Models. Загружаете картинки, стили, фотографии, лица и так далее, и у вас просто тренируется Лора. Пользоваться этим может любой человек с подпиской, но тут пока ничего революционного нет. Как я только что сказал, адоби только догоняют лидеров ниши. Если же говорить о лидерах ниши прошлого, то можно вспомнить проми

Midjourney v8: что нового в релизе

Джорney, которые вот выпустили на этой неделе версию восемь своей модели для генерации изображений. Делал об этом пост в Telegram-канале Креативный совет. Ну и что тут сказать? Med Journey - это модель, которая славится своей эстетикой. У них очень хорошие дата-сеты, в которые входят много красивых, классных артов. И главное преимущество Меджорни перед конкурентами - это достаточно тонкая настройка, которая проигрывает всяким там флаксом, stable диффюшеном и так далее, но тем не менее есть. И есть она в очень удобном веб-интерфейсе, где ещё можно настраивать персонализацию под ваш профиль. То есть вы буквально как в Пинтересте каком-нибудь, да, лайкаете картинки, которые вам нравятся, и создаётся как бы персонализация вашего аккаунта. И при генерации изображений с включённым параметром персонализация будут генерироваться картинки, которые, скорее всего, вам понравятся, потому что MGOR не знает ваш вкус. В новой версии добавили HD Mode, то есть нативная генерация в 2К. Затем Q4 мод с дополнительной стабильностью. улучшили conversation mode, в котором можно общаться с нейросетью, но это не нанобана, которые изображение редактирует, а это просто способ, как написать лучше промпт. Грид мод для фокуса на одной серии изображений. Ну, в целом и всё. Новая модель сразу же, естественно, не поддерживает все функции старых моделей. И в отличие от старых версий, на самом деле, тут будет работать практически всё. Сейчас они ещё добавили и релаксгенерацию, которой при выходе модели изначально не было, и некая новая версия срефа. Я вот не особо знаю, что в ней именно обновили. Sреф - это возможность переносить стиль с одного изображения на другое. А

Microsoft MAI image 2

Microsoft выпускает My Image 2. Это новый такой тексту imageгенераator. Вообще тут не вижу смысла ни на чём останавливаться. Это как-то всё будет в экосистему Майкрософта вкручено. То есть пользоваться ей можно будет в каком-нибудь капайте или Bink image creatре. Короче, продукты компании потихоньку заменяют продукты Open AI. Хотя тут про редактирование изображений ничего нету. Тут просто вот генерируются картинки. Тем не менее генерируются они очень хорошо. Аж третье место модель на самом деле занимает на арене тексту нейронок. То есть уступает только GPT image пол и Gemini 3. 1 Flash, то есть нано банане второй. Ну и тут не знаю, что добавить. Это, наверное, какая-то штука, чтобы там в презентацию картинку сгенерировать, но вот как креативный какой-то инструмент это использовать я точно, э, ну, не имею понятий. А вот

Krea: Node Agent и мобильное приложение для iOS

замечательная креа, про которую я всё чаще думаю, что нужно сделать новый ролик, э, выпускает Crea Edit на iOS. Всё автоматически выделяется, заменяется, можно ремонты делать, перестановки какие-то в квартире. реально классно можно использовать этот инструмент. И вот мне тут больше всего нравится то, что этот инструмент именно можно использовать не для какой-то профессиональной деятельности, а именно просто для того, чтобы вот посмотреть, как будет новый диван в вашей комнате стоять. Хотя в целом это и в какой-нибудь нанобанане можно сделать. Тут единственное отличие, наверное, в том, что просто интерфейс поудобнее для того, чтобы это делать. Более же интересное обновление от Crea - это Crea Node agent, то есть нодный интерфейс с возможностью работы с агентами, где агент за вас простраивает все но, простраивает зависимости соединения и, ну, смотрите, какая красота. Пишите просто promptт, а за вас всё делается. Это типа note дизайнинг. Я не знаю, как это назвать, честно говоря. У нас только что поток по созданию контента с помощью нейросетей пошёл. Я там объяснял, как это всё делать вручную. Теперь опа, кре говорит: "Зачем делать вручную? За всё агент сделает за вас". Доступно пока только на Pro, мак бизнес-тарифах, но, блин, очень круто. Ещё одна забавная

Picsart: маркетплейс с ИИ-ассистентами

штука - это Pixart, который позволяет нанимать AI ассистентов через специальный marкеetй. По сути, это просто подписка на мини-ботов, которые автоматизируют работу внутри Pixart. На старте у них есть четыре агента: Flayer, Resйize, Remix, Flayer для работы с Shopify магазинами, анализирует тренды, работа с фото, с описаниями и так далее. Resй resizйedт картинки, ремикс для работы со стилями и SWAP, видимо, для работы с объектами редактирования, там, замена лиц и так далее. Тут, честно говоря, это в статье не написано. Ну и я на сам сайт не заходил, там подписку не оплачивал. Мне это как будто слишком сильно не нужно. А вот что мне нужно -

LTX Studio даббинг

это крутой псин, например, который предоставляет LTX. В целом дабинг в ЛTX и так был. В ЛТЕ даже у нас был режим видео, который вообще мало достаточно где можно найти, но теперь они реально улучшили модель. Посмотрите, выглядит же очень классно. То есть оригиналы на английском, да, но тут очень хорошо двигается рот. И как вы могли видеть, очень хорошо в звуке это всё дело попадает. Вообще LTX, кстати, тоже замечательный, вообще потрясающий сервис. Помимо того, что у них лучший open source на сегодняшний день, они ещё и реально классный функционал очень предоставляют. И вот поработать им чуть-чуть над качеством моделей, я думаю, там через полгода, год это будет точно один из самых лучших сервисов в

Gamma Imagine: генерация инфографики для презентаций

мире. Гамма же выпускает GammaМА Imagн GammaМА, как вы знаете, у нас один из лучших сервисов для создания всяких презентаций. И вот теперь они выпускают модель. Я не знаю, их ли это модель. Ну, в общем, теперь там можно делать реально качественные картинки. Не просто картинки, а именно инфографики. И вот что-то такое. Можно прямо взять, выбрать вот композицию нужную вам какую-то, описать, что на ней должно быть, и всё у вас сгенерируется в разных стилях, с разным текстом. Короче, на информации, на которой вам нужно это сгенерировать. Более 100 вот таких шаблонов они уже добавили и останавливаться не будут. В общем, молодцы, ребята. Ещё один

Новый видео-агент от PixVerse

видеоагент, кстати, у нас появился на этот раз от Пиксвёрса. Я пока что тоже его, каюсь, не тестировал, потому что, ну, не слишком много про него говорят. Я, честно говоря, жду, когда выйдет какой-то агент, про которого все будут орать, что вот это сверх круто, туда точно надо идти пользоваться. Тогда я пойду, пока этого не случается, я просто жду, ну, чего-то такого революционного, потому что пока что всё, что я вижу, работает достаточно банально, честно говоря. Ну, конечно, прикольно, да, Pix C, типа, можно там через Open CД какой-нибудь видосики генерировать, но вот зачем, я не прям, честно говоря, понимаю. А далее новость, про которую вы наверняка слышали - это Nvidia DLSS5.

NVIDIA DLSS 5: революция или подмена визуала?

новое поколение AI upйлинга для визуала. Вот примеры, да, того, как это выглядит и выглядит оно намного лучше. Интернет уже, конечно же, полон мемами, из-за которых вы, скорее всего, про этот релиз и слышали. Ну, то есть, да, до бесконечности картинок, где вот без DLSS5, с DLSS5 примерно тот же шаблон мема, что мы видели при выходе RTX, да, то есть RTX off, RTX On. Теперь вот то же самое, только DLSS5. DLSS5 он. Спорный момент тут по сути в том, что в отличие от РТx, который у нас просто как бы показывает, как там лучи отражаются, проходят сквозь поверхности и так далее, тут происходит буквально энхенсинг видеоряда, то есть изменение оригинального видеоряда. По сути, у нас происходит перерисовка того, что нам дают создатели. То есть, возможно, замысел создателя может потеряться. И на самом деле реально многие разработчики недовольны, выказывают какое-то опасение перед этой технологией. И, вероятно, это действительно достаточно революционный процесс в игропроизводстве, потому что теперь есть вероятность, что игры в целом не надо будет делать слишком качественными, потому что качество будет придаваться уже у вас на железе. А оригинальные игры можно делать вот такими. Пофиг, всё равно DLSS5 потом докрутит. И ещё хочу рассказать про

Teleport 360: создаем 3D-копию своего дома

интересную штуку. Телепорт 360 камера. Это, конечно, если что, не реклама, но приложение позволяет вот так вот по нескольким точкам создать благодаря гаусонам сплетсам, в общем, 3D макет вашего жилища или не вашего жилища, просто 3D пространство, в которых можно будет находиться. Это прямо вообще начало, реальное начало метаврса. Очень большой вопрос, конечно, куда вся эта дата будет идти и будет ли она там передаваться специализированным органам и вообще через сколько после выпуска вот этой штуки у нас будет идеальная 3D-копия всего земного шара со всеми помещениями изнутри. Но достаточно прикольно, что когда метавёврс история как-то начнёт развиваться, если начнёт, можно будет, наконец-таки, придя с тяжёлого рабочего дня, сесть у себя в комнате на диван, надеть шлем и открыть глаза у себя же в комнате на диване, потом выйти и уже по космосу там летать на своём космическом корабле. Плюс благодаря этой истории в целом может появиться огромное количество всяких прикольных игр, которые на самом деле и так есть. Вы наверняка видели там всякие симуляторы уборки. То есть вы в шлем ардеваете, да, и пылесосите, а в очках на линзах у вас монетки, да, разбросаны. И задача как бы все монетки этим пылесосом собрать, такая геймификация рутины. Но это максимально примитивная штука, которая уже есть. благодаря вот этой истории, которая в целом и так существовала, но сейчас это реально просто быстрогенерирующее приложение на телефон, которое доступно любому человеку, может произойти, появиться что-то реально интересное. Вот я, кстати, вам рекомендую этим заняться, потому что поле не пахано, а придумать тут можно очень много всего прикольного. И напоследок хочу вам показать вот такой вот прикольный пример, чего можно сделать с помощью э живой съёмки, компьютерной графики, искусственного интеллекта и объединения этого всего внутри 4D пространства. Последней же новостью, про которую я хочу рассказать, является рак для

RAG для видеогенераторов

видеогенераторов. Чем же это отличается от создания ЛОР? Лора - это именно до обучения модели. То есть нам как минимум нужно время на то, чтобы эту модель обучить. Как максимум, итоговая версия будет делать что-то конкретное, и, в общем, откатить её обратно будет уже невозможно. Надо будет брать чистую версию и уже делать что-то с ней, либо там дообучать до другой версии. В общем, Ла - это другая модель. Тут же прикол в том, что мы можем задавать референсы персонажей, стилей и так далее просто благодаря работе с файлами. То есть модель по сути не переобучается, она просто использует огромные дата-сеты, которые рак компактизированы для того, чтобы видеогенератор получал к ним быстро, качественный доступ. И это достаточно круто, потому что для тех, кто, например, работает с локальными моделями, просто взяли, грубо говоря, то же самое, что и Лору сделали, но вообще на это не тратив ни времени, ни вычислительных ресурсов. Короче, в перспективе очень востребованная, классная штука, но пользователям облачных сервисов я не знаю, честно говоря, как она поможет. Максимум сделает генерации подешевле, но, конечно же, вряд ли. И на этом выпуск подошёл к

Аутро

концу. С вами был Игорян, дядя Дебл в первой половине ролика. Это вот все новости нейросетей. И они у нас, кстати, выходят каждое воскресенье. Не забывайте про скидки в нашем боте. Подписывайтесь на канал, ставьте лайки, пишите комментарии и оставляйте колокольчики. И увидимся на следующей неделе. Пока.

Другие видео автора — Продуктивный Совет

Ctrl+V

Экстракт Знаний в Telegram

Экстракты и дистилляты из лучших YouTube-каналов — сразу после публикации.

Подписаться

Дайджест Экстрактов

Лучшие методички за неделю — каждый понедельник