GPT 5.1 — очередной МАРКЕТИНГ! Разбираем без Х**НИ
19:56

GPT 5.1 — очередной МАРКЕТИНГ! Разбираем без Х**НИ

RixAI 14.11.2025 1 055 просмотров 27 лайков обн. 18.02.2026
Поделиться Telegram VK Бот
Транскрипт Скачать .md
Анализ с AI
Описание видео
🤖 ЧЕСТНЫЙ РАЗБОР GPT 5.1: маркетинг или реальные улучшения? Ссылка на мой Telegram-канал: https://t.me/+NmiOwLntWek2NDky Там я делюсь свежими инсайтами о нейросетях каждую неделю. Все нейросети в одном месте - телеграм бот + веб интерфейс: https://syntx.ai/welcome/06Eoljlo Удобная и выгодная оплата зарубежных сервисов: https://t.me/pakopay_bot?start=utm_rixai 20% скидка на первую комиссию при оплате. Устали от обзоров, где авторы просто пересказывают официальную информацию? В этом видео мы разберём обновление ChatGPT 5.1 по-другому. Узнаете, что на самом деле изменилось, где маркетинговая шелуха, а где реальные технологические улучшения. Спойлер: это не новая модель, но результаты вас удивят. 📌 Что вы узнаете: Мы разберём архитектуру нейросетей и поймём, почему одинаковое количество параметров не означает одинаковую мощь. Увидите конкретные различия между GPT 5.1 в сравнении с GPT 5, разберём, как RLHF улучшает модель. Плюс раскроем популярные мифы: контекстное окно не выросло до 2 млн токенов, это выдумка. Узнаете, почему подписка дороже, чем API, и как сэкономить реальные деньги. 💡 Практическая ценность: Если вы работаете с нейросетями или только начинаете — это видео избавит вас от множества неправильных представлений. Поймёте, как правильно оценивать обновления ИИ-инструментов, перестанете платить за ненужные функции и научитесь выбирать оптимальный способ использования (подписка vs API). ⏱️ Временные метки: 00:00 — Почему типичные обзоры бесполезны 01:37 — Что на самом деле изменилось в GPT 5.1 03:22 — Следование инструкциям: миф или реальность 05:14 — Параметры нейросети: объясняем просто 06:16 — 5 популярных заблуждений (и их разоблачение) 09:14 — Контекстное окно: подписка vs API 13:25 — Финальный вердикт: эволюция или революция Если это видео помогло вам разобраться в нейросетях — поставьте лайк и подпишитесь на канал. Делитесь в комментариях, какие мифы об ИИ вам ещё встречались. Ссылка на мой Telegram-канал: https://t.me/+NmiOwLntWek2NDky Там я делюсь свежими инсайтами о нейросетях каждую неделю. #gpt5.1 #chatgpt5.1 #chatgpt #нейросети #ии #искусственныйинтеллект #обучение #openai #api

Оглавление (7 сегментов)

  1. 0:00 Why typical reviews are useless 225 сл.
  2. 1:37 What really changed in GPT 5.1 286 сл.
  3. 3:22 Following instructions: myth or reality 296 сл.
  4. 5:14 Neural network parameters: explained simply 151 сл.
  5. 6:16 5 popular misconceptions (and their debunking) 461 сл.
  6. 9:14 Context window: subscription vs. API 695 сл.
  7. 13:25 Final verdict: evolution or revolution 984 сл.
0:00

Why typical reviews are useless

Разберём новое обновление чата GPT 5.1. Потому что как же меня зае эти тупые обзоры, когда человек открывает просто страничку, где написана информация официального чата GPT и начинает просто её пересказывать. Нахрена? Когда это можно сделать? Любой человек, который понимает русский язык, может самостоятельно зайти это и прочитать. Не в этом ценность. Ценность именно посмотреть реально, что за этим стоит. Поэтому я пошёл немного по-другому пути. Я взял вот это обновление, вот эту идею, проработал подробнейший промт, где я расписал роль, контекст, задачи, какие-то параметры, определённые исследования. Получился огромный промт. Я его закинул в модель Perplexity, потому что она лучше всего подходит для исследований. И создал вот такую вот страничку, где прописаны все важные параметры, которые стоит учитывать в этом обновлении. И мы разберёмся, где правда, а где реально, как я здесь подписал, маркетинговая шелуха. Давайте начинать. Также по ходу видео я буду рассказывать очень интересные штуки, которые многие не знали. И когда вы это узнаете, у вас уже изменится представление, в принципе, о нейросетях. Потому что эта информация, она мало где рассказывается, потому что все в основном открывают страничку и начинают считывать просто-напросто отсюда текст. Это просто пизде. Ну что ж, давайте начнём. Обновление, если говорить коротко, это та же модель GPT5 с улучшенной настройкой поведения через RLF. RLHF. Ну, у меня всегда трудности с выговариванием вот этого аббревиатуры и обновлённым системным промтом. Никаких
1:37

What really changed in GPT 5.1

изменений архитектуры, количество параметров не увеличилось. Мы про это тоже, кстати, дальше поговорим. Ну, по простым простыми словами, что за параметры и за что они отвечают. Это не новая модель, а улучшенная версия, существующая через дополнительное обучение. Кто не знает, что такое RLHF, это вот это я не буду зачитывать, это просто это метод машинного обучения, который использует обратную связь от людей для дообучения моделей искусственного интеллекта, чтобы они лучше соответствовали человеческим ценностям, намерениям и предпочтениям. Вместо того, чтобы полагаться только на запрограммированные метрики, а вот это вот инструмент обучает модель вознаграждения на основе оценок людей, а затем использует эту модель для улучшения работы искусственного интеллекта. Короче, когда вы общаетесь с чатом GPD, если вы уже работали с ним хотя бы там, ну, не знаю, там недельку, у вас наверняка была вот такая вот штука, когда вы пишете какой-то запрос, и у вас здесь есть два варианта выбора, и он вам предлагает: "Выбери это или выбери это". Ну, зачастую я не смотрю, где лучше, просто беру самый первый, но кто-то, может быть, читает и изучает это, смотрит, где лучше, сравнивает между собой. И, короче, потом на основе вот этих данных, что выбирают пользователи, они вводят какие-то дополнительные нововведения и улучшения. Давайте посмотрим, что вот в этом документе было озвучено. Вот я это сюда тоже внёс. И посмотрим на это немножко скептически. А, точное следование инструкциям. Ну, о'кей, да, это тоже интересно. Ну, в том плане, что раньше модель игнорировала требования, теперь она выполняет их точно, да? То есть, как там указано вот в этом документе в примере, если мы и пишем, что ты должен писать шесть слов, то есть отвечать на наши вопросы, используя там, например, шесть слов, то он чётко выполняет эту инструкцию. А я
3:22

Following instructions: myth or reality

сейчас даже покажу пример более подробный. А зде где он был. Вот. А, то есть вот пример, когда старая модель GPT5, когда мы задаём такой параметр, она начинает всё равно тупить. То есть, ну, короче, не то отвечает. А когда мы уже задаём в GPT 5,1, то он чётко всё отвечает, то есть не начинает ничего расписывать. То есть, короче, лучше следует инструкциям. А дальше теплее, дружелюбный. Ну, вот это вообще жесть. А почему? Потому что вот это вот всё делается не для технологии. Это всё делается для того, чтобы посадить вас на подписочку в 20 долларов, а для того, чтобы вы платили и теплее и дружелюбно общались с нейросетью. Это маркетинг простой. То есть вот это вот всё я не считаю какой-то технологичностью, потому что а даже вот просто открою инсайт для многих. Те 20 долларов, которые вы тратите на чат GPT, вы их не вырабатываете, а в среднем, ну, среднийстатистический пользователь вырабатывает от 4 до 10 долларов. остальное просто уходит в карман компании, и на этом они зарабатывают. Поэтому, ну, теплее, дружелюбнее, хорошо добавили ещё вот эти тупые настройки. Я даже вот где-то чат GPT открыл. Если мы перейдём сейчас вот в настройки, персонализация, вот эти вот всякие стили и тоны. А, не считая чем-то это полезным. На самом деле, если вы умеете работать и грамотно делать запросы к нейросети, то вот эти вот все роли вы ему можете задавать самостоятельно. он может их принимать в зависимости от вашего запроса. Это, наверное, сделано для тех, кто, ну, там, супер новичок и не понимает, как задавать грамотно запрос к нейросети. Ну, тоже о'кей. Там может быть кому-то полезно, но для меня это, ещё раз повторюсь, просто маркетинговая ловушка. Идём дальше. А, кстати, что-то я ещё хотел здесь дополнить. А, ну, а это я дополню про
5:14

Neural network parameters: explained simply

параметры. А, адаптивное рассуждение. А, модель определяет сложность вопроса и определяет разное время на размышление. простые задачи, сложные задачи. Ну, тут какие-то технические вот улучшения здесь стали. Быстрее она стала в простых задачах, чуть помедленнее, ну, рассуждает в сложных задачах и делает их более качественно. И что это значит? Модель умнее распределяет вычислительные ресурсы, не тратит время на простые запросы. И здесь определённые есть параметры улучшения на тестах. Я здесь сейчас не буду их озвучивать, но вот здесь основная фишка, что программирование -22% ошибок в коде, то есть заметное улучшение, но не революция. Как бы эволюция, но не революция. Теперь пойдём к самому моему интересному. Это маркетинговая шелуха, да, то, что все мы любим. А здесь нейросеть собрала информацию с разных пабликов, обсуждений, там, сообществ и вывела некоторые вот самые популярные заблуждения. А, OpenI, да, мы выпускаем GPT5, нашу новую модель. Это не новая модель, чтобы вы понимали. Это та же
6:16

5 popular misconceptions (and their debunking)

самая модель просто с дообученным вот этим вот, как я озвучивал в начале, я пояснял, что это такое. То есть с дообученным вот этим общением и обновлённым системным промтом. А параметры у неё остались идентичны. Кто не знает, что такое параметры, я, ну, я же сказал, что я буду рассказывать какие-то интересные фишки по ходу видео, чтобы это был не тупейший обзор чата GPT. А, поэтому, кто не знает, вообще, а, все найросети работают по принципу трансформера. Не буду сейчас углубляться, что это такое. Есть вот такой вот документ, который называется Attention is all you need. И, в принципе, с него всё и началось, и зародились нейросети. И здесь вот есть такая схема. Это полная конструкция к вот современных нейросетей. Они все работают вот по этому принципу. Ну, понятно, что здесь есть некоторые надстройки, там различия, но вот общая логика такая. И смотрите, что такое параметры. Параметры - это как раз-таки multihead attention, то есть многоголовое внимание. Что это такое? Это то количество голов, а, которые смотрят на ваш запрос с разных сторон. Вот вы, например, говорите: "Там я хочу приготовить себе пожрать там какую-нибудь пиццу". И вот он смотрит на ваш запрос и думает, как с там сколько используется параметров? По-моему, 1.700. А с 1700 разных сторон думает, какую вам предложить пиццу, какой рецепт, там какую форму, там, не знаю, короче, там разные могут быть. Это форма, размер, смысл. То есть каждая голова отвечает за свой параметр определённый. Вот что такое как бы параметры. Они здесь не поменялись в новой модели, остались точно такими же. Архитектура модели никак не изменилась. Ничего они не добавили. А разработана эта модель была за 3 месяца. А этого недостаточно для полного какого-то переобучения или суперобновления. Я уверен, что они уже сейчас делают GPT6, потому что когда выходит GPT, например, 5, они уже делают, а у них уже есть на руках какая-то сырая версия GPT6. Просто они её не могут выкатить, они её уже разрабатывают. Ну потому что это ну вот продолжение этой цепочки, им нужно как-то выдерживать конкуренцию. Они постоянно разрабатывают новые модели, чтобы быть лидером на рынке. И аналогия, как ресторан, который обновил меню, но шефа и кухню не менял. Это же это те же ингредиенты, просто по-другому приготовлены. Следующее. Здесь я не буду тоже сильно останавливаться. Здесь идея в том, что я исследовал ещё запрос с точки зрения, поменялась ли архитектура. Нет, не поменялась, да? То есть нет никаких доказательств. А если кто-то пишет, это выдумка из неофициальных блогов и кликбейтных статей. А дальше ещё вот такой интересный запрос где-то на паблике проскакивал. А вот здесь вот, видите, есть источники, просто я не буду сейчас по ним переходить, что якобы у этой модели новой GPT 5.1, ну не новый, вот обновлённый, увеличилось контекстное окно до 2 млн токенов. Кто не знает, что
9:14

Context window: subscription vs. API

такое контекстное окно - это то, сколько модель помнит с вами диалог. Например, вот у вас есть такое вот диалоговое окно. Я сейчас просто рассказываю сразу для тех, кто не понимает, чтобы вы поняли. И вот вы с ней общаетесь. Вот у вас начался чат, вы задали вопрос на эросеть, написал вам ответ, снова запрос ответ. И у вас, например, вот здесь вот заканчивается контекстное окно. Ну, в данном случае оно в GPT5 - это 400.000 символов. Ну, если мы говорим про версию не подписочную, а по апе. Сейчас мы тоже об этом поговорим. И получается, как только вы дошли вот до этого момента, хоп, перескочили, соответственно, а неросить начала обрезать информацию сверху. То есть как чем ниже вы уходите, тем больше информации вверху урезается. Вот. А, соответственно, это и называется контекстным окном. Поэтому, если вы в самом начале описывали на Эйросети свой проект, э, там рассказывали что-то о себе, то как только вы это превышаете, найросеть забывает, о чём вы говорили. А здесь миф в том состоит, что его увеличили, но на самом деле нет. Это мы посмотрим уже там примерно через недельку, когда эту модель GPT 5.1 выкатят уже в доступ по А. Я сейчас гуглил, ну не гуглил, а смотрел на такой платформе Open Router. Сейчас ещё этой модели здесь нету. Ну логично, она только вышла. Есть вот GPT5. А и здесь, а, кстати говоря, давайте сразу тогда скажу ещё про подписку и про контекстное окно. Чтобы вы понимали, здесь у меня в исследовании есть такая вот штука, что контекстное окно по подписки и по апе оно отличается, кто об этом не знал. То есть по апе - это когда мы платим за каждый запрос. То есть мы отправляем что-то в нейросеть, мы платим, мы получаем что-то, мы платим. То есть это называется платное использовано использование нейросети за запрос, а не по подписке. Так вот, в случае подписки мы видим, что у нас в модель instant имеет контекстное окно 128.000 токенов, а модель 196.000 токенов. По апе этот размер, как мы видим, в два раза больше. То есть компания намеренно урезает контекстное окно для пользователей по подписке для того, чтобы экономить. Также вы могли заметить, что когда вы используете модель по подписке, то она старается в среднем выдавать одинаковый размер ответа, то есть объём. Ну, понятно, что можем нагрузить там куча данными, понятно, что она потом начнёт больше отвечать, там может ответ получиться такой, но она старается всё равно, когда ей задают какое-то простые вопросы, ужиматься в какой-то определённый параметр. Это тоже всё сделано, чтобы зарабатывать на вас деньги. Поэтому, если вы хотите использовать нейросеть на максимум, я советую рассмотреть её использование по апе. То есть у вас будет точно такая же платформа, как, а, ну, вот как в чате GPT. Единственное отличие, что вы, а, зайдёте вот, например, на эту платформу Open Router, закинете себе сюда деньги и получите доступ к 340 моделям. А как это сделать? У меня на канале YouTube есть видео, которое называется, где там, ну вот получается оно у меня, а, позапрошлое, где я разворачивал 340 моделей локально на своём компьютере. А если вы будете использовать нейросети по апи, то таким образом вы избежите а вот этих вот невыработанных ресурсов. То есть вы будете вырабатывать ровно то, что вы как бы задали, вам вернули, всё, вы как бы в моменте потратили. То есть, если вы там говорите с нейросетью на 2 доллара в месяц, то вы будете платить не 20, а 2 доллара. Тоже хорошая экономия, на самом деле. Обратите внимание. Но при этом, когда будете использовать разные модели, ну, когда вы всё настроите, если вы решитесь это сделать и посмотрите моё видео, то обращайте внимание на такие параметры, как Input Tokens и Output Tokens. А потому что есть дорогие модели. Давайте возьмём GPT версию. А там, по-моему, была GPT 5 Pro. Посмотрите, какой здесь конский расход. У нас за 400.000 токенов. Ну, это много, но не так много. У нас 15 долларов идёт на вход и 120 на выход. Это просто конские цены. Поэтому выбирайте модели попроще. Вот, например, вот я выбрал GPT5, а там всё терпимо, ну, более-менее. А на самом деле вообще есть ещё и более дешёвые модели, как, например, Deepsic. Я вообще использую
13:25

Final verdict: evolution or revolution

DeepsК, а, по, ну, официальному апе. Там у меня вообще я с ним общаюсь целый день. у меня там уходит, может быть, 0,5 цента, да, и я с ним там сутками его просто раздрачиваю. Поэтому тоже имейте это в виду. Кто хочет экономить и грамотно разбираться с нейросетями, обязательно посмотрите мои видео. И мы видим, что это слух, то есть нет никакого дополнительно контекстного окна в 2 млн токенов. Это всё, а маркетинговая шелуха. А больше параметров равно умнее. Как мы видим, заявление, что кто-то там написал, что GPT 5,1 имеет больше параметров, поэтому она умнее. Реальность такова, что параметры идентичны. Только что я об этом говорил. Мы смотрели, когда схему трансформера. Вот я рассказывал про параметры. А параметры остались также 1,7, а, ну триллиона, да, конечно же, не тысячи триллиона. А, и единственное, вот они, да, улучшили через вот этот вот параметр RLHF и скорее всего поправили какой-то системный пром, добавили разные возможности, а, товса, то есть как она с вами, наверное сееть общается, там дружелюбно как-то заигрывает с вами, ещё как-то. А следующее - это практически не галлюцинирует. Мы видим, что заявление Open AI сделало такое, что -46% галлюцинации, чем у GPT4. А кто не понимает, что такое галлюцинация, я сейчас объясню. Когда нейросеть обучается на каких-то данных, то она находит в этих данных определённые статистические закономерности. И раньше, когда мы использовали какие-то старые модели, например, GPT3, то в этих моделях, так как а они обучались, ну, они ещё были не такие современные, не было каких-то дополнительных слоёв обучения у этих моделей, они галлюционировали прямо жёстко. Очень явный пример, популярный - это столица Австралии. Когда мы писали запрос JPTIN 3, например, столица Австралии, она а говорила, что это какой-нибудь Мельбурн, да, но на самом деле это не так, потому что, ну, она галлюцинировала, так как это эти данные встречались в большинстве там статей, видео, обучающих материалах. На самом деле столица Австралии - это канбера. Просто о ней никто не говорит. И поэтому вот это и называют галлюцинацией, да, когда мы задаём на эросети какой-то свой запрос, и она выдаёт неправильный ответ. Вот мы видим это вот здесь вот в примере в примерах галлюцинации, что а пользователи заметили там рейдит, сообщали, что модель завышала экономические показатели ВВП стран в два раза. Решённые, нерешённые задачи. То есть НАС и инженеры тестировали модель на нерешённых задачах. модель уверенно выдавала решения, которые были неверными, и физические объяснения уверенно выдавала неправильные объяснения законов физики. Вывод: модель стала лучше, но всё ещё делает существенные ошибки. 40% - это примерно каждый второй, третий ответ с ошибкой не подходит для критически важных задач. Понятно, мы здесь говорим про какие-то сложные нам мы не НАСА, да? Мы обычные люди, но аа понятно, что в простых задачах всё будет нормально. Если какие-то вот сложные алгоритмы, математика, то здесь лучше проверять всегда. Лучше здесь иметь свою экспертность и, а, ну, использовать нейросеть как инструмент, потому что зачастую многие берут нейросеть и используют её просто как замену своему мозгу. Это неправильно. Нужно его использовать как свой собственный инструмент, потому что он не заменит вашу экспертность. Следующее. Давайте развеем мифы, а, которые мы и так уже развеяли, что это не новая модель. нету никакого контекста 2 млн токенов. А она ещё также где-то делает ошибки в сложных алгоритмических задачах в математике. Ну, кстати, в математике уже, наверное, там минимально. Ну, если мы грамотно это всё опишем, запрос зададим, промт, если криво, то тоже, наверное, скорее всего, ошибки сделает. А в архитектуре никаких изменений нету. Ну, и в целом всё. Также я сделал такую вот сравнительную таблицу GPT5 и версии 5.1. видим, что параметры не изменились никак идентичные остались, архитектура не поменялась. Здесь вот это тоже относится всё к архитектуре. А дальше а увеличился контекст, да, мы видим, что у, а, получается версии, это у нас instant, да, если не ошибаюсь, у версии thinking там ещё, по-моему, больше до 200.000. А контекст остался такой же. Ну, мы сейчас только что смотрели на этом сервисе. А системный промт. Мы видели, что они обновили и добавили много разных там вариаций вот эту вот дрочильню. А скорость тоже посмотрели, лучше следует инструкциям, а где-то там по тестам, а лучше по показателям. А улучшили, да, что она меньше галлюцинировать стала, ну и лучше стала программировать. Вот. То есть ключевой вывод. Из тринадцати параметров изменилось только восемь. Причём пять изменений - это результат как раз-таки RLHF, то есть обучение системного промта, а не изменения архитектуры. То есть фундаментальная начинка модели, параметры, архитектура и другие механизмы остались идентичными. Ну здесь уже это он от себя написал некоторые тут рекомендации, которые я не вижу смысла сейчас здесь озвучивать. Давайте лучше сделаем финальный вердикт. GPT 5,1 - это эволюция, но не революция. Это не новая модель ни в коем случае. Это та же GPT5, которая прошла просто дополнительную надстройку через обратную связь от реальных пользователей. То есть когда пользователи там нажимали, что вот этот ответ лучше, там этот ответ мне нравится, они вот это всё создали и добавили. То есть получил обновлённый системный промт и улучшенную настройку поведения. Всё. То есть никаких изменений в архитектуре, как я и говорил, количество параметров, всё это осталось прежними. А есть реальные улучшения, которые мы проговорили и посмотрели на примерах, и рассмотрели маркетинговые, самые популярные преувеличения. Ну, здесь прообновляться, это лишнее. В целом, всё, источники официальные все, я это всё проверял, поэтому вот такой вот у нас получился хороший отчёт по новой вышедшему, точнее новому вышедшему обновлению. Поэтому, дорогие друзья, если для вас это было полезно, интересно, вы узнали из этого видео не только про обновление, а также про какие-то интересные факты о не найросети, то напишите комментарии, поставьте лайк, подпишитесь. Я буду очень благодарен за это. А также не забывайте, что у меня в шапке профиля на YouTube канале закреплён мой Telegram-канал, где я уже периодически больше выхожу вживую, выкладываю все дополнительные материалы, которые я разбираю на видео, и, в общем, там такая более тёплая атмосфера. Поэтому всем спасибо за просмотр и, конечно же, до новых встреч.

Ещё от RixAI

Ctrl+V

Экстракт Знаний в Telegram

Транскрипты, идеи, методички — всё самое полезное из лучших YouTube-каналов.

Подписаться