In todays video we look at Chinas version of o1 and more details on ChatGPT Operator.
Links:
https://chat.deepseek.com/
https://api-docs.deepseek.com/quick_start/pricing/
https://deepmind.google/technologies/gemini/flash-thinking/
https://www.perplexity.ai/hub/blog/introducing-the-sonar-pro-api
https://runwayml.com/worlds-of-frames
https://klingai.com/release-notes
https://lumalabs.ai/ray
https://huggingface.co/spaces/tencent/Hunyuan3D-2
Chapters:
0:00 What’s New?
0:31 DeepSeek-R1
3:44 Sam Altman’s Tweet
4:47 ChatGPT Operator & o3-mini
7:54 Gemini 2.0 Flash Thinking Experimental
8:42 Perplexity Sonar
9:40 Runway Frames
12:10 Kling AI Elements
12:48 Luma AI Ray2
13:56 Hunyuan 3D Generator
15:04 Message for Viewers
#ainews #newsyoucanuse
Free AI Resources:
🔑 Get My Free ChatGPT Templates: https://myaiadvantage.com/newsletter
🌟 Receive Tailored AI Prompts + Workflows: https://v82nacfupwr.typeform.com/to/cINgYlm0
👑 Explore Curated AI Tool Rankings: https://community.myaiadvantage.com/c/ai-app-ranking/
🐦 Twitter: https://twitter.com/TheAIAdvantage
📸 Instagram: https://www.instagram.com/ai.advantage/
Premium Options:
🎓 Join the AI Advantage Courses + Community: https://myaiadvantage.com/community
🛒 Discover Work Focused Presets in the Shop: https://shop.myaiadvantage.com/
Еще одна насыщенная событиями неделя в мире ИИ, и сегодня мы рассмотрим все, что вы можете использовать уже сегодня, и большая часть этого на самом деле находится в свободном доступе, потому что у нас были серьезные новости, такие как инвестиции в размере 500 миллиардов долларов и первый комментарий к GPT 5 и O3 mini, который мы получили. В дополнение к этому мы выпустили инструмент, обладающий интеллектом A1 по лучшей цене — он бесплатный и полностью с открытым исходным кодом. Есть кое-что, о чем нам нужно рассказать подробнее, но это и многое другое — инновации в области генеративного ИИ. В этом выпуске новостей об ИИ, которые вы можете использовать, давайте начнем, и я действительно хочу
начать с новостей Deep Seek. Итак, история такова: ранее на этой неделе китайская платформа ИИ Deep Seek выпустила новую модель мышления под названием R1. Это их прямой конкурент Open AI 01, который доступен только за 20 долларов в месяц. Это самая умная модель, которая у нас есть сегодня, уступающая только A1 Pro, который стоит 200 долларов, с той разницей, что эта модель полностью с открытым исходным кодом, и они предоставили веб- интерфейс. Здесь вы, даже не входя в систему, можете обрабатывать 50 сообщений в день с помощью этой модели, которая соответствует возможностям O1. Посмотрите, DeepS — это синяя модель, OpenAI1 — серая. Но я думаю, самое важное здесь — это то, что они решили сделать её открытым исходным кодом. Это означает, что если вы откроете любое программное обеспечение, которое запускает модели с открытым исходным кодом, например, Olama или LM Studio, вы можете загрузить эти модели в размере, подходящем для вашего компьютера. Они начинаются с 1,5 миллиарда параметров, что подходит практически для всех. Если вы хотите соответствовать O1 Mini, вам нужно перейти к модели с 32 миллиардами параметров, как вы можете видеть на графике и во всех бенчмарках, которая, по сути, превосходит O1 Mini. И если вы сделаете это впервые, вы сможете запустить Peak Intelligence локально, в частном порядке, без подключения к интернету, без передачи ваших данных в какой-либо центр обработки данных — вы можете сделать всё это на своём компьютере. И впервые вы можете сделать это с помощью интеллектуальных моделей. Вот почему это так важно — они просто намного умнее. И хотя люди всё ещё выясняют точные варианты использования, я могу лишь сказать вам из личного опыта, что С тех пор, как у меня появился профессиональный аккаунт, я использую 01 Pro для всего, что меня действительно волнует, включая стратегическое планирование и размышления о более масштабных задачах. Я регулярно сравниваю его с 01 и 040, и могу с уверенностью сказать, что эти модели мышления просто выдают результаты более высокого качества, и это независимо от всех этих бенчмарков. Теперь вы тоже можете это делать бесплатно, локально, создавать на его основе собственное приложение или запускать его внутри своей компании, не боясь того, что может произойти с данными. Итак, если на этом этапе вы все еще задаетесь вопросом, что вам следует делать с этой моделью, мы сейчас проводим ежемесячный конкурс (ссылка в описании ниже), где мы попросили людей присылать свои примеры использования этих моделей мышления. В первую неделю февраля я проведу прямую трансляцию, где мы рассмотрим некоторые из лучших примеров, что должно показать вам, для чего на самом деле это использовать. И последнее замечание, которое я хочу вам оставить, касается ценообразования, потому что, если вы посмотрите на 01, то 15 долларов за 1 миллион входных токенов — это если вы запускаете его через API, размещенный на их стороне. Размещаем это локально, то же самое для DeepChat. Мы хотим посмотреть на ввод без наличных: 27 центов за 1 миллион токенов. Сейчас даже со скидкой до 14, то есть 1% от цены. Абсолютно безумная разница между этими двумя конкурентами. И я не могу не думать о том, как это подталкивает OpenI к выпуску большего количества продуктов. Они анонсировали проект Stargate, в рамках которого собираются инвестировать 500 миллиардов долларов в инфраструктуру ИИ для США. Но это уже другая история. Они говорили о выпуске FreeMini, который по сути соответствует производительности OpenIte и DeepSeek R1, но модель будет очень быстрой. В то время как если я запущу сложный запрос, подобный этому, который оценивает производительность модели, чтобы помочь с тонкостями тонкой настройки модели, это совершенно другая тема. Мы занимаемся тонкой настройкой, которую разрабатываем уже некоторое время. Если я это сделаю, ответ займет много времени, что сделает такую модель неоптимальной для чего-то вроде ИИ-помощника, верно? Вы хотите дать ему задачу, а затем хотите выяснить, как ее решить. Разумное количество времени и все эти модели мышления... возможно, вам придется подождать немного, поэтому O3 mini будет действительно важен. И если вы похожи на
меня, вы, возможно, задавались вопросом: « Хорошо, модели мышления — это здорово». Но когда я покупал GBT 5, Сэм Алман недавно поделился некоторой информацией в Твиттере. Я больше не могу найти этот твит, но, к счастью, у нас есть небольшой скриншот переписки, где он говорит: «Привет, можешь рассказать что-нибудь о GB5? », а затем задает вопросы: «Когда? », «Какова будет производительность? » и «Как будет развиваться серия GPT? ». Он, по сути, ответил: «Во-первых, они разбираются с этим, но я думаю, вы будете довольны». Это означает, что мы можем сохранять оптимизм. Для меня это сигналы того, что мы получим его в этом году, и что производительность будет значительно отличаться от того, что у нас есть сейчас с 40, а затем и бесплатно. Это тоже очень интересно. Это то, чего я и многие другие люди уже ожидают: они объединят эти модели мышления с обычными моделями, так что вам не придется выбирать, вы просто сами разберетесь. Что вы спрашиваете и какая из моделей будет оптимальной для ваших целей? Думаю, в конечном итоге ИИ станет относительно простым в использовании для базовых сценариев, но сейчас есть промежуточный этап между релизом и конечным состоянием, когда вам действительно нужно знать, как его использовать, как им управлять, на что он способен, понимать инструменты и их ограничения. Вот на каком этапе мы сейчас находимся, и я надеюсь, что подобные видео помогут в этом. И это ссылка на
последнюю новость или слух, на который я хочу сослаться: по слухам, оператор 01 выйдет сегодня, 23 января, в день записи этого видео. Краткое обновление от редактора Эйгора: прошло всего 16 часов с момента записи этого сегмента, но ИИ развивается так быстро, что есть несколько важных изменений, о которых мне нужно вас проинформировать. Во-первых, оператор уже вышел. Они выпустили его вчера в спонтанной прямой трансляции. Я сделал отдельное видео об этом, очень рекомендую посмотреть. Я проанализировал там два сценария использования. В прямом эфире вы можете увидеть, на что он способен и как работает. Сейчас он доступен только за 200 долларов, так что неплохо сначала посмотреть на него, а потом решить, подходит ли он вам. Во-вторых, они объявили, что Ofre Mini появится в бесплатном тарифе Chat PT. Это очень неожиданно, ведь 1-я версия доступна только за деньги, а 3-я Minut появится. Это, конечно, связано с анонсом Deep Seek, о котором мы только что говорили. Так что это отличное событие для всех, кто работает в сфере открытого исходного кода, буквально делая продукты на основе ИИ дешевле и доступнее для широких масс. Удивительно! И в-третьих, я хочу добавить один комментарий к Operator. Во-первых, я по-прежнему считаю его самым полезным и революционным продуктом со времен Chat GPT для большинства людей, практически для всех. И я обнаружил эту дополнительную возможность, которую пропустил вчера, и которая, на мой взгляд, потрясающая. Вы можете добавлять пользовательские инструкции для конкретных приложений. Например, если у вас есть определенный способ использования Booking, или, может быть, у вас есть любимые объявления, или какие-то предпочтения, вы можете указать их здесь. И всякий раз, когда Operator использует Booking, он будет использовать ваши пользовательские инструкции. Можно ввести данные кредитной карты — это работает, можно ввести данные для входа в аккаунт Google — это тоже работает, но они также сохраняются в браузере. Так что, если я запущу свой пресет, который я показывал в видео, он уже будет авторизован в аккаунте Google, мне не нужно будет делать это снова. Так что он запоминает это — это огромный плюс. И еще одно последнее замечание по поводу Operator: мы начали создавать базу данных внутри сообщества AI Advantage, которое, как вы знаете, платное, но это наше закрытое сообщество, где мы изучаем все эти вещи, и мы создаем базу данных всех вариантов использования Operator вместе с командой. У команды сейчас несколько подписок CIPt Pro, так что мы все изучаем, и у многих наших основных участников тоже есть подписка, так что мы создаем базу данных, и, знаете, многое из этого постепенно появится на канале YouTube. Мы собираемся создать несколько отличных видео в ближайшие недели, очень жду этого. Но если вы действительно хотите узнать больше и увидеть, как мы это делаем и что мы тестируем, то сообщество — это то место. И я хочу поделиться одной вещью, которая меня действительно поразила, потому что мы тестируем все эти вещи в Operator, и многие из них просто работают. И что мне нравится, так это то, что, например, мы предоставили ему доступ к нашей базе данных Notion, где мы собираем примеры использования Operator, и мы научили Operator, если что-то работает, как перенести это в базу данных Notion. Таким образом, мы запускаем эти различные задачи внутри Operator, а затем Operator помещает их в нашу собственную базу данных. Теперь это, знаете ли, отвечает на один из вопросов в комментариях к видео вчера: может ли это работать с Excel, электронными таблицами? Ответ — безусловно, да. Мы используем это с базами данных Notion для документирования примеров использования Operator, которыми мы делимся с сообществом, и если мы их изучим, мы поделимся ими на YouTube. Это невероятно, так что посмотрите видео, если вы еще этого не сделали. А теперь вернемся к следующей новости об ИИ, которую вы можете использовать. Далее, я постараюсь быть
кратким, это, по сути, новый релиз от Google Deep Mind. Они также выпустили новую модель мышления, которая называется Gemini 2. 0 Flash Thinking Experimental. Это их конкурент... 01 и глубокий поиск, о котором мы только что говорили, доступны в Google AI Studio. Вы можете увидеть, что в этом первом бенчмарке он набирает 73%, что, по сути, находится на уровне 32-битной версии глубокого поиска R1. Кстати, эта большая модель глубокого поиска имеет около 600 миллиардов параметров, поэтому в этом бенчмарке GPQ Diamond она набирает 74%, опережая большую модель глубокого поиска, немного отставая от Opening Eyes. Таким образом, они тоже, по сути, претендуют на лидерство, и, как мы говорили на прошлой неделе, мы наблюдаем своего рода натиск всех этих моделей мышления, и это, похоже, становится новым стандартом для программно доступного интеллекта. Хорошо, перейдем к следующей новости об ИИ, которую вы действительно можете
использовать. Следующий релиз от Perplexity. Это будет довольно кратко, но я думаю, это важно, потому что мы сами используем Perplexity в различных автоматизациях. В Advantage, когда мы исследуем эти истории, мы автоматически запускаем поиск Perplexity поверх них, и мы делаем это программно через их API. Теперь у них есть новая версия этого, она называется... API Sonar Pro, и главное отличие от предыдущей версии заключается в том, что теперь он включает ссылки и возможность настройки источников, так что он показывает, откуда получена информация. Например, в новостной программе, где мы анализируем каждую историю, это критически важно, и я с нетерпением жду возможности использовать источники в рамках исследования Perplexity по каждой истории. В версии Pro также есть некоторые расширенные функции, такие как режим JSON или возможность фильтрации по определенным доменам, если вы хотите их исключить, например. Поэтому всем, кто использует Perplexity в своих рабочих процессах или автоматизации, скоро придется это изменить, потому что я также получил электронное письмо о том, что они прекратят поддержку старых моделей в течение месяца. Так что, если у вас что-то работает с Perplexity в фоновом режиме, пора сменить модель на новые модели Sonar, которые они предоставляют. Хорошо
далее несколько улучшений в области генерации видео и изображений с помощью ИИ. Я предпочитаю говорить кратко, потому что важно быть в курсе событий и понимать, что появляется, но я обнаружил, что большинство людей не хотят углубляться в это и тратить десятки минут на это. Итак, начнём с одного крупного релиза в области AI-обработки изображений на этой неделе, который выходит от Runway. Если вы следите за новостями, вас может удивить то, что Runway до сих пор занималась только генерацией видео. На самом деле, они первыми разработали множество инструментов, которые мы знаем и любим, для многих других видеогенераторов. Теперь у них есть модель обработки изображений, которая называется Frames. На самом деле, это очень специализированная модель, потому что она кинематографическая, то есть это хорошо освещённые, тщательно скомпонованные изображения, как кадры фильма с хорошей операторской работой. А вот что меня действительно удивило: это генератор изображений с использованием ИИ, который выйдет в 2025 году. Это означает, что он конкурирует с такими программами, как Journey, Flux, Rec Craft, Ideogram, Stable Duffification и многими другими. Это полностью закрытая модель с высоким качеством, как и Runway, хотя у Runway больше вариантов. И вот что удивительно: если вы хотите попробовать это по ежемесячному плану, он стоит 95 долларов. На самом деле, у нас была подписка от команды, и в U нам пришлось дополнительно заплатить V8, что в сумме составило около... 120 долларов за ежемесячную подписку на инструмент для генерации изображений, в то время как Mid Journey стоит 10 долларов (конечно, безлимитный доступ не предусмотрен). Дело в том, что это действительно дорого, вероятно, не стоит того для большинства людей, желающих генерировать изображения. Конечно, нам нужно оформить подписку и запустить тестовые задания. Мы включим его в наш ежемесячный рейтинг генераторов изображений AI Advantage примерно через неделю, который мы публикуем каждый месяц в бесплатной части нашего сообщества. А пока у меня есть несколько предварительных тестовых изображений, и я выложу сравнения этого генератора с некоторыми конкурирующими моделями, такими как Flux и Mourney. Как видите, здесь он делает портретные снимки, и они выглядят великолепно. Я думаю, он не уступает по гиперреализму некоторым лучшим моделям. Flux, возможно, немного придирчив к некоторым деталям, особенно к логотипам, как и ожидалось, здесь не так хорошо. Вам понадобится что-то вроде Deogam, если вы хотите сгенерировать логотип. Mid Journey по-прежнему остается лучшим, но когда мы переходим к кинематографическим кадрам, он действительно показывает себя с лучшей стороны. Ну, каждый аспект этого видео великолепен: цветовая палитра, композиция, освещение — посмотрите на этот большой рассеянный ключевой свет на их лицах и подсветку сзади, разделяющую их. Это действительно хорошо работает, создавая кинематографический эффект. То же самое относится и к этим кадрам с дрона — они выглядят потрясающе. Посмотрите на эту цветовую палитру. Но стоит ли это 98 долларов? Я не знаю, учитывая, что у некоторых конкурентов аналогичное качество за копейки или подписку за 10 миллионов долларов, вероятно, нет. Но выглядит хорошо. Вот вам информация, чтобы составить собственное мнение. Теперь перейдем к следующему видео, это релиз Cling Eye
похожий на то, что мы видели во многих других инструментах. Они называют его Elements, и по сути, он позволяет добавлять различные элементы в видео и интегрировать их. Мне очень нравятся эти примеры из их блога: кот в кожаной куртке и очках превращается в эту монтажную группу, добавьте какой-нибудь звуковой эффект. Мы видели это у некоторых конкурентов, но недавно Cling Eye зарекомендовал себя как одна из лучших, если не лучшая модель для повествования благодаря своим высококачественным персонажам. Как и ожидалось, вы можете добавлять в него определенные элементы. Мы видим, что некоторые из лучших функций распределены по различным инструментам. А еще есть один
релиз в области видео с использованием ИИ — это совершенно новая модель Luma. Она вышла на прошлой неделе, но еще не была доступна, поэтому я ее еще не показывал. Теперь Ray 2 доступен любому подписчику. Эта штука впечатляет! Luma Laps была, можно сказать, первой, кто выпустил Dream Machine, и она положила начало новой эре видео с использованием ИИ. На самом деле, Sora Preview была первой, но Luma Labs Stream Machine была первой доступной моделью. Затем появилось много других моделей, превзошедших ее по качеству, таких как Cling, Minimax и другие. И теперь модель Ray 2 на одном уровне с ними. Насколько она хороша? У нас есть несколько примеров, снова сравнивая ее с еще не выпущенной VO2, которая обычно считается королем видео с использованием ИИ. Она еще не выпущена, но вот несколько прямых сравнений между Ray 2 и VO2. В частности, этот маленький хот-дог, плавающий в бассейне, действительно хорош. Думаю, по-немецки это называется « охота на Дакса», довольно интересное слово, поэтому я хотел вплести его в видео. А что насчет этого пчеловода? Тоже очень хорошо, за исключением, пожалуй, руки, которая тает сквозь подсолнух. Так что да, еще один конкурент в этой области. Я все еще считаю, что VO2 — лучший из них, но опять же, он пока недоступен. Вот и все. Инновации в области ИИ-изображений и ИИ-видео на этой неделе. Давайте перейдем к следующей
истории. Итак, это генератор 3D-моделей, и иногда такие появляются, а мы их даже не показываем, потому что я понимаю, что у большинства людей не будет для этого конкретного применения. Но я хочу показать вам значительные прорывы в различных категориях ИИ, и я думаю, что этот определенно подходит под это описание. Это от 10 Cense Hanyuan, которую вы, возможно, знаете по их генератору видео, но здесь они опубликовали 3D-модель, которую вы можете попробовать сегодня. Есть даже обнимающееся лицо, вы можете попробовать это сами. Я просто выберу одно из этих изображений. Как насчет Пикачу с базукой? Нет, что это? Огнемет, АК-47, атака Пикачу. Хорошо, давайте сгенерируем фигуры и текстуры и посмотрим, что получится. Скажу вам честно, я немного протестировал это перед записью, и я никогда не видел такого качества от генератора 3D-моделей на основе ИИ. Скорость, с которой мы продвигаемся во всех направлениях, просто невероятна. Иногда мне нравится пробовать такие небольшие демо-версии, чтобы увидеть это на практике. Хорошо, посмотрите на этого Пикачу с огнеметом. Кажется, хвост не прикреплен, но в остальном довольно хорошо. А вот и полностью текстурированная модель. Давайте сделаем еще одну. Хорошо, вот она. Посмотрите, это действительно круто. Если посмотрите на текстурированную версию... Ах, я не знаю, я не работаю в 3D-моделировании, но могу сказать, что это лучший генератор 3D-моделей, который я видел, безусловно. Интересно. Переходим к следующему.
И чтобы завершить видео на этой неделе, я хочу отметить один комментарий к видео на прошлой неделе. Комментатор был немного недоволен тем, что я попросил вас поделиться вашим любимым вариантом использования одного из инструментов, которые я... Я вам это уже показывал, не буду здесь акцентировать, но суть была примерно такая: вы меня даже не знаете, зачем вы просите меня оставить комментарий? Наверняка это только для алгоритма, вам всё равно. И я просто хотел это прояснить, потому что это утверждение совершенно не соответствует действительности. Самое интересное в этих видео — это ваше взаимодействие с нами, ваши комментарии. Смотрите, я всю жизнь изучаю эти инструменты, анализирую их и представляю вам, а в основном получаю мало обратной связи. Не знаю, нравятся ли вам разные разделы, хотите ли вы больше материалов по ИИ-обработке изображений, больше LLM-технологий, больше автоматизации — что угодно, я люблю получать отзывы. Вы, наверное, меня лично не знаете, но я довольно общительный парень, и я люблю хороший диалог. К сожалению, эти видео на YouTube в большинстве случаев — это монолог, где я рассматриваю... Различные вкладки и релизы, но сказать, что мне всё равно, как зрители будут использовать это в своей жизни, — это далеко не так. Думаю, это долгий способ сказать: если у вас есть план использования каких-либо инструментов, пожалуйста, оставьте комментарий ниже. Мне очень интересно их увидеть. И если вы считаете, что мне следует изменить структуру этого шоу, тоже не стесняйтесь поделиться этим. Черт возьми, именно поэтому я теперь провожу ежемесячные стримы на канале и создал сообщество, потому что это позволяет нам вести более прямой диалог со зрителями. Так что, если у вас есть какие-то мысли, которые возникают во время видео, пожалуйста, поделитесь ими. И нет, я говорю это не просто так, черт возьми, я мог бы просто попросить вас, например, иногда публиковать сообщения, забудьте об этом. Лично я бы предпочел, чтобы вы оставляли свои мысли, чтобы я мог создавать более качественные видео, которые будут вам интересны. Хорошо, на этом всё на этой неделе. Надеюсь, у вас будет замечательный день, и до скорой встречи!