Турбо вайбкодинг с OpenAI gpt-oss и Cerebras.ai
5:16

Турбо вайбкодинг с OpenAI gpt-oss и Cerebras.ai

Sereja Ris 06.08.2025 2 561 просмотров 54 лайков обн. 18.02.2026
Поделиться Telegram VK Бот
Транскрипт Скачать .md
Анализ с AI
Описание видео
OpenAI выпустила две open source модели, и я тестирую их прямо в видео. Показываю как за 1.5 секунды создать полноценный трекер подписок через Cerebras (3000 токенов/сек), как запустить модель локально на Mac через LM Studio, и почему это меняет всю индустрию. Модель аналогична GPT-4 mini, но полностью бесплатная и открытая. Ссылки: Мой канал в телеграмме — https://t.me/serejaris Чатик вайбкодеров — https://t.me/vibecod3rs Песочница — https://gpt-oss.com/ Попробовать модели на Hugging Face — https://huggingface.co/collections/openai/gpt-oss-68911959590a1634ba11c7a4 Самый быстрый провайдер OSS — https://www.cerebras.ai/ Последние новости об Искусственном Интеллекте. Узнайте о больших языковых моделях (LLM), вайбкодинге и AGI. Сережа Рис освещает последние события в мире OpenAI, Google, Anthropic, NVIDIA и ИИ с открытым исходным кодом (Open Source). 00:00 OpenAI выпустила OSS модели 00:30 Демо: приложение за 1.5 сек 01:30 Запуск 100 агентов одновременно 02:00 Cerebras и скорость 3000 токенов/сек 02:30 Как запустить локально на Mac 03:30 Сравнение с Anthropic Claude 04:00 Чатик Вайбкодеров

Оглавление (7 сегментов)

  1. 0:00 OpenAI выпустила OSS модели 75 сл.
  2. 0:30 Демо: приложение за 1.5 сек 139 сл.
  3. 1:30 Запуск 100 агентов одновременно 67 сл.
  4. 2:00 Cerebras и скорость 3000 токенов/сек 77 сл.
  5. 2:30 Как запустить локально на Mac 129 сл.
  6. 3:30 Сравнение с Anthropic Claude 59 сл.
  7. 4:00 Чатик Вайбкодеров 168 сл.
0:00

OpenAI выпустила OSS модели

Так, привет, друзья. Ну что, пока ты спал Open выпустила две новых модели. Одна поменьше, вторая побольше. Всё очень просто. Давай посмотрим прямо в деле, прямо сразу, прямо сейчас. Я попрошу сделать, как обычно, своё любимое трекер подписок. Приложение для трекер подписок в одном файле, чтобы всё было, чтобы было проще проверять. Посмотрим, проверим, как работает новая модель. Это Openi. И уже готова. Всего лишь за полторы секунды я получил своё приложение. Давайте посмотрим, что
0:30

Демо: приложение за 1.5 сек

получилось. Открываю, запускаю. Интересно, вот так получилось. Давайте проверим. Netflix стоимость, допустим, 100 руб. Допустим, период месяц добавить. Это удалим. Работает. Давайте ещё одну добавлю, чтобы проверить. Допустим, Яндекс за 150 руб., допустим, месяц. Работает. А что, если на друг не работала? Да ну, ничего страшного. Мы же можем за полторы секунды ещё одна сгенерировать. Э, да. Можем ли мы это сделать? Конечно, можем. Просто просим сделать ещё раз мне одно, а, ещё одно приложение мне. Давайте посмотрим, сколько времени заняло. Хмм, всего лишь полторы секунды. Надо же. Давайте проверим, какое она получилось. Сохраним, запустим, обновим. Немножко отличается. Как ты думаешь, получается, я могу, допустим, в параллели ээ запустить 100 таких агентов, да? Они мне сделают 100 вариантов приложения, и я могу выбрать. Представь себе совещание, на котором ты находишься, на котором вы обдумываете, что вы будете делать, и
1:30

Запуск 100 агентов одновременно

пока ваш ноутейкеer в Google Meте пишет э transрипt вашего совещания, одновременно такая штука запущена, генерирует тебе приложение, которые вы, может, обсуждаете, и ты на телефончике сидишь и тыкаешь: "Нравится, не нравится, как в Тиндере, влево, направо". Поэтому, ребята, вот эта штука, она революционна. Сереброс - это один из самых крутых провайдеров. Он самый быстрый, 3. 000 токенов в секунду. А, кстати, эту модель GPT, э, почему
2:00

Cerebras и скорость 3000 токенов/сек

вообще она так работает? Почему какой-то cреbr? Потому что она open sourceная. Её можно запускать локально, можно запускать на каком-то сервере, где угодно. Ты можешь использовать её как угодно, можешь её файнтюнить, то есть дорабатывать. И в последующие дни недели и месяцы мы увидим с вами огромное количество фантазий и вообще огромное количество интересных моментов, что люди будут делать с этой моделью. А, поверьте, будет много чего интересного. Её можно кастомайзить, она очень хорошо подходит для агентных
2:30

Как запустить локально на Mac

задач, там, в том числе и написание кода. А можно пробовать на интерактивной демге прямо внутри сайта, э, на Open. Aa, но там это не так интересно. Интереснее всего попробовать на cerebros либо внутри Hagen Face. Здесь же можно точно также вот infence providers. Выбирайте сереброс. Грок тоже очень хороший э внутри и пробуйте. Вот эта вот модель по своим мощностям Open. Aa, она аналогична О3 Mini и О4 Mini. А и она аналогична самой лучшей модели год назад. И она сейчас бесплатная, и ты можешь её запустить локально на своём компьютере. Как это сделать? Нужно скачать LM Studio. LM Studio доступно для Мака. Скачиваешь её, открываешь LM Studio. Внутри LM Studio ты ищешь, э, OSS. OSS скачиваешь, запускаешь. Она весит 12 гигов. Для запуска тебе нужно 16 гигов
3:30

Сравнение с Anthropic Claude

памяти видеокарты. На У меня M1 Pro достаточно старый комп, ему уже 4 года, она запускается на нём. скорость генерации будет, конечно, гораздо медленнее. Вот то, что я вам показал на церебросе, скорость была 1500 токенов в секунду. Да, ещё раз попробуем. Давай сделай мне, подумай, что ты там подумал, что ты мне исправил. 1. 00 токенов в секунду.
4:00

Чатик Вайбкодеров

Здесь же ты, кстати, можешь выбрать, а как долго будет думать модель над тем, что тебе нужно сделать. Можно поставить высокий, можно низкий, можно поиграться со своей температурой. Чем она больше, тем будет, э, непредсказуемый ответ. Чем меньше, тем она будет всегда стабильной. А здесь 20 токенов в секунду локально, но тем не менее всё равно можно попробовать поиграться. Вот, пожалуйста, бесплатно используй локально. Chatт GPT аналогичный. И это интересно. Интересно, что будет дальше, на что ответят конкуренты. Дальше сейчас китайцы что-нибудь выпустят. Интересно посмотреть, антропик зайдёт ли на эту вообще историю с какой-то локальной своей темой, потому что у Санета, например, скорость а генерации в код-коде, который я использую, 70 токенов в секунду. Здесь 1500. А, но это серебрац, понятно, здесь самые топовые и возможные ГПУ для скорости этого всего. Но, в общем, интересно посмотреть, что будет дальше. Мне кажется, через год мы этот мир текущий не узнаем. В чате было активное обсуждение, ребята делились, тестировали, поэтому подрубайтесь в чат, нас интересно. Вот, до новых встреч. M.

Ещё от Sereja Ris

Ctrl+V

Экстракт Знаний в Telegram

Транскрипты, идеи, методички — всё самое полезное из лучших YouTube-каналов.

Подписаться