Узел дня. Разбор ВСЕХ нативных узлов в n8n - https://web.tribute.tg/s/FwG
Polza AI - https://polza.ai/?utm_source=blog&utm_medium=cpc&erid=2VfnxyLQvxG
Приватка закрыта!
---------------------------------
https://t.me/vladimir_kkkkk - телеграм канал (смотрите закреплённый пост)
Ищите материалы к роликам в тг по названию видео
n8n - https://n8n.partnerlinks.io/9f51nckey33z
beget - https://beget.com/p2340235/cloud/mark...
В этом видео я Владимир Карпухин покажу, как установить новые Open AI модели gpt-oss-120b и gpt-oss-20b на свой компьютер. Это гайд n8n по созданию ИИ агентов локально. Разберём Ollama установку, n8n автоматизацию с локальными LLM и получим chat gpt бесплатно! Обучение ИИ через AI агентов, GPT на компьютере без интернета. Настоящий приватный AI через open source модели и no-code AI платформу n8n!
00:00 - Open AI выпустили GPT-OSS
02:10 - Установка Ollama, gpt-oss и n8n на ваш ПК
08:29 - Подключаем gpt-oss-20b по API
11:18 - Создаём ИИ агента с gpt-oss
15:58 - Разбор каждого узла в n8n. Подключаем тулы к ИИ агенту
26:13 - Как установить gpt-oss на свой сервер
Оглавление (6 сегментов)
Open AI выпустили GPT-OSS
В этом видео мы установим новые Open source модели от Open AI к себе на компьютер и подключим их к n8n. Open AI впервые со времён GPT3 выпустили open source модель. Наконец-то. Вот две штуки. Это gpt-oss-120b и gpt-oss-20b. На самом деле ни одна из моделей, которые были Open ai, типа там GPT 4. 1, вот этих всех, которые выходили, никто из них не был open source. Что такое source модель? Это значит то, что вы можете поставить её локально к себе на компьютер или на сервер. И в случае, если мы ставим модель от Open AI, вот эту будем ставить к себе на компьютер, она будет для нас бесплатной. И мы можем её подключить к n8n, и у нас наши автоматизации, созданные в n8n, будут работать в контуре нашего компьютера. То есть нам не надо будет подключаться к каким-либо другим сервисам по API. Зачем вообще это надо? Ну, затем то, что у вас будет полная приватность, то есть ваши данные вообще никуда не будут отправляться. Ну и это будет бесплатно, будет нулевая стоимость. Вы платите только по факту за электричество и всё, если у вас мощный компьютер. Ну вот смотрите, что пишут сами. Open AI. Я перевёл эту статью, получается. А вот они говорят то, что gpt-oss-120b достигает почти честности с open ai o4 Mini на основных тестах и рассуждений. То есть скорее всего она, конечно же, не такая же мощная, как Openai o4 mini, но в любом случае, учитывая то, что её можно поставить локально, это очень прикольно. Но обратите внимание, то, что gpt-oss-120b требует большой мощности, и её поставить логально, скорее всего, не получится на ваш компьютер. А вот gpt-oss-20b получится, потому что вот gpt-oss-120b вам нужен графический процессор 80 ГБ. Это очень много. У вас, скорее всего, столько нет. Ну, если есть, то прикольно. А вот 16 ГБ у вас, скорее всего, есть. Вот у меня, кстати, наверное, да, у меня есть 16 ГБ на Маке, поэтому попробуем запустить её локально. Короче, суть в том то, что это хорошие модели от Open AI. И при этом они бесплатны, их можно развернуть локально, но через официальный API Open они недоступны. Давайте перейдём к делу, будем запускать их у себя на компьютере. Для этого что нужно сделать? Для начала вам нужно скачать Алаama. Это такая программа, которая позволяет запускать локально у себя на компе всякие ленки. Переходите на
Установка Ollama, gpt-oss и n8n на ваш ПК
сайт alama. com, жмёте download, вы скачиваете, получается, а установщик. Ну, мне вот под macOS надо. Ага, можно вот тут модели пока посмотреть, пока она скачивается. Вот видите, gpt-oss добавили Deep Seek, тут есть там GEMA 3, Quen и прочие модели, которые можно развернуть локально на вашем компе либо сервере. Оно скачалось, давайте установим, да, устанавливаем оламу. Ну, тут всё просто. Не знаю, что объяснять. Закидываем аламу. Если у вас винда у вас другая, конечно же, будет установка. Вот мы открыли нашу аламу. И смотрите, что тут есть. Ну, здесь обычный интерфейс, похожий начат GPT. И вот тут у нас показаны наши модели, которые нам доступны. Сейчас пока что ни одна из этих моделей не скачана к нам. К нам на компьютер. Чтобы скачать модель все на компьютер, как я говорил, давайте скачивать вот эту, потому что это требует очень много памяти. Давайте загрузим младшую модель, то есть 20Б. Чтобы её загрузить, нужно просто что-то отправить в чат. Мы что-то отправляем в чат, и у нас сейчас запустится загрузка. У меня, кстати, это почему-то без VPN, они не загружаются, поэтому давайте VPN включу. Вот смотрите, как это происходит. Аламу я к себе на компьютер уже скачал, поэтому я покажу на другом примере. Я выбрал Psсиer 1, написал привет и сразу же началась загрузка. И остаётся просто ждать, пока оно загрузится. В целом всё. Ну, мне DPCР1 не нужен, поэтому я, наверное, остановлю. Просто вы дожидайтесь загрузки, пока она у вас загрузится. И тут сразу её можно протестировать. Вот я ей что-то написал. GVT OS 20B написал: "Привет". Как оказалось, мой Мак не вывозит. И у меня даже вырубилась запись в Ложике звука, потому что он мне написал то, что система перегружена, и я его остановил. То есть он начал мне отвечать, вот думать, типа это usер и так далее. Короче, мой Мак не вывозит, но я всё-таки покажу, как установить, получается, её подключить к локальному NVMN на вашем компьютере. А вот Квен, кстати, нормально отвечает. Я скачал Квен 34B и вот смотрите, тоже пишу: "Привет". Он, ну да, нормально думает и достаточно быстро отвечает. То есть локально развёрнута на компе получается моделька. Что-то он очень долго думает. Перебор слишком много всего. Привет. чем могу помочь сегодня и так далее. Ну, то есть он нормально работает. В любом случае, как подключить локальные модели к вашему N8N? Что надо сделать? Для начала вам, конечно же, нужно перейти на сайт докера и установить его, то есть нажать download. Теперь переходите, получается, в загрузке или куда он у вас там скачивается. Устанавливаете докер. Так, ну тут всё просто. Это мы сейчас делаем для того, чтобы установить локально на наш компьютер N8N. И в конце ещё покажу, как установить на сервер модель. Вот это вот от Openik. Вот запустили Docker. Жмём accept. Жмём финиш. Так, теперь надо авторизоваться. Вот мы запустили наш, получается, этот докер. Теперь надо будет скачать, короче, контейнер, который я вам дам в Телеграме. Естественно, что нужно сделать? Давайте для удобства перекинем файл docker compost на рабочий стол. Теперь открываем терминал. Теперь пишем CD и то место, где у вас лежит, получается, ваш файл docker compost. У меня это на десктопе. А потом мы пишем следующую команду, пишем docker compose, то есть то, как у вас называется файл, и пишем up. У нас началась, получается, установка нашего N8N Postgs. Остаётся только ждать. Всё, у нас всё установилось. И вот, по идее, нам пишут адрес, по которому будет доступен наш N8. Давайте проверим. Да, вот у нас запустилось N8NOS. Если вы зайдёте внутрь, получается, в контейнеры, откройте N8N, пролистайте вниз, вот будет ссылка, которая нужно скопировать и открыть. Вот здесь получается всё получается. Это CNN, развёрнутый локально на вашем компьютере. Здесь вы вводите стандартная страница регистрации. Вводите mail, имя, почту. Mail настоящий, потому что там ключ лицензионный придёт. Нужно активировать ваш N8N. Ну и здесь по дефолту нажимаете, получается, Settings, жмёте Unlock. Тут вводите вашу почту, куда вам приходит лицензионный ключ, и активируете. Смотрите, локально у нас лама уже установлена, поэтому что мы делаем? По дефолту ставим on chat message, чтобы подключить. Подключаем нашего E-агента. Вот мы подключили нашего E-агента, и здесь нужно выбрать чат model. Обычно мы тут, естественно, брали там Open A или Open Router, но так как у нас модель установлена локально, мы можем выбрать Oлаama как раз тот сервис, вот он, который мы и установили. Открываете credential в аламе и вместо local host пишите, получается host. Internal и проверяем. Всё, видите, всё работает. Теперь мы закрываем и видим то, что у нас подвязалась наша модель, которую мы скачали. И также я говорил, что я скачал Квен. Вот он у нас есть Квен. И давайте проверим. То есть мы берём и нашему и агенту отправим что-нибудь, типа привет и ждём, пока он нам ответит. Как видите, он думает, естественно, ну, дольше, чем если по IPI вызывать, потому что мы задействуем мощность уже нашего компьютера. То есть у нас всё работает локально. То есть, видите, у нас тут пишет то, что он подумал think и ответил. Но это была не Алама, это я запустил модель, потому что Алаama будет очень сильно грузить мой компьютер, и мой компьютер с ней не справится, как я уже показывал. Ну, давайте всё равно протестируем. Привет. Кто ты? Ответь коротко. Да, я её выключил. И что делать-то? Вы хотите её всё равно протестировать по API Openi. Она недоступна, а локально её ставить, ну, имеет смысл только если у вас мощный компьютер. Всё-таки этой моделью можно воспользоваться по API. И это можно сделать через сервис Польза AI. Что такое вообще сервис Польза AI? Это такой сервис, а, аналог Openроутера получается, на котором собрано большое количество всяких разных лмок. Он открывает доступ сразу к сотням разных LLM и не только. А-а, здесь скоро будут доступны модели, которые обрабатывают аудио и генерируют видео. Тоже будут доступны. Вот тут слева показано. Для того, чтобы им пользоваться, вам не нужны ни VPN, ни зарубежные карты. Здесь всё оплачивается за рубли. И получается то, что вы экономите деньги на конверсии валют. У вас нет никаких процентов за то, что вы конвертируете там доллары в рубли. Вам не нужно мучиться, выяснять, как вам оформить зарубежную карту. Вы сразу всё оплачиваете. И у вас доступно огромное количество нерастей в одном месте по API. И у них дешёвые цены относительно конкурентов. Короче, ссылка в описании. Тыкайте, тестируйте и смотрите,
Подключаем gpt-oss-20b по API
что мы тут можем сделать. Да, вот, как я говорил, тут есть Open AI модели, которые тут доступны. В том числе GPT5 тут тоже доступно. Вот GPT5, GPT5 mini, GPT5 nano. Здесь цены указаны за 1. 000 токенов в рублях. То есть всё удобно. И, как вы можете заметить, здесь доступно пой GPT ОOS 20B и GPT 120B. И получается так то, что по API, если вот через пользу I, например, их вызывать, это самые дешёвые модели, которые есть от Openi. Вот конкретно это. Смотрите, GPT5 Nano, она сейчас самая дешёвая, по идее, модель, доступная от OpenI напрямую. Вот она стоит 0. 004, это стоит 0. 003. И за выход токенов тоже здесь 0. 03, а здесь 0. К14, то есть это самая дешёвая модель от Open AI. Многим нравятся модели именно от Openi. Они реально хорошо работают. Самая дешёвая модель, которая сейчас есть от OpenI, получается - это вот GPT OS 20B. И давайте её попробуем подключить как раз через пользу AI. Что для этого нам надо? Мы перейдём, получается, в личный кабинет. Здесь жмёте ключи API, создаёте ключ, копируете и переходите в наш N8N, получается. Аламу пока что убираем и подключаем пользу AI. Можно это сделать через вот Open AI. Жмём Create New Creedential. Здесь вводите ваш API ключ. А в графе URL вводите следующее. Тут есть документация, получается. Вот тут есть справка. Можно тыкнуть на справку и посмотреть. Есть вот интеграции с N8N. Нажимаете, листаете ниже. И вот нам дают URLE URL, польза AI. Мы его копируем. И вот сюда вот ставим этот URL. Проверяем. Да, всё работает. И тут у нас появляется fromлиistста, огромный список моделей, которыми мы можем воспользоваться, там, отнтропика и так далее. Давайте найдём нашу модельку GPT OS. Вот. Open GPT Oos 20B. Открываем и проверяем. Вот можно написать: "Привет, кто ты? " Всё отвечает: "Привет, я чат GPT, большой языковой модель от Open AI. " То есть вы можете подвязывать эту модель через польза AI, и это будет хорошо в целом работать. Смотрите, что дальше можно сделать. Но давайте протестируем, как она показывает себя в автоматизациях. Это модель. И модель на 120B тоже проверим. Где у нас на 120B? Давайте проверим её. Напишем о 120B. Привет. Да, тоже работает. Она помощнее будет. И, кстати, стоит она тоже не сильно дорого. Вот GPT О 120B тоже стоит не сильно дорого. Она, конечно, уже дороже, чем 20b, и получается дороже, чем 5 nan, но дороже, если только токены на inp, а токены на outp тут дешевле, чем GPT 5 nano. То есть тоже очень дешёвая, хорошая модель в целом. Почему бы её не использовать для ваших там продакшн-целей? И что мы можем сделать? Мы можем сделать следующее. Ну, сделать
Создаём ИИ агента с gpt-oss
какую-нибудь автоматизацию, да, давайте подключим амеory какую-нибудь простую, подключим тулы. Ну, например, я хотел подключить AI Agent Tool. AI Agent Tool. Давайте вот так сделаем. Уберём эту штуку и в chatт моду добавим а модель сектора. То есть, чтобы мы могли выбрать какую-то модель, одну из двух. Вот. И у нас будет правило, когда какую модель выбирать. То есть здесь мы поставим, получается, GPTOS OOS, которую мы зовём через API от пользы AI. А здесь мы поставим нашу локальную модель, но пусть будет KVN, да. Обратите внимание то, что когда вы закрываете приложение Алаama, то есть нажимаете на крестик, закрываете, сверху тоже у вас горит иконка, вы её закрываете, у вас алама перестаёт работать, потому что вы её выключаете на вашем компьютере. И докер, если вы тоже закрываете, его приходится потом заново включать, и у вас перестаёт работать ваш N8N. Вот давайте покажу. Вот я его закрою сейчас. Всё, его завершил. Перезагружаю и всё, у меня сломался N8N. И для того, чтобы его открыть заново, запускаете опять ваш докер и, а, вот у нас есть, получается, контейнеры. Нажимаем desktop. Вот у нас есть постре, то есть база данных, которая нужна для N8N и N8NOS. То есть жмём старт. Старт. Всё, у нас запустилось. Да, вот видите, now editor is now available через вот этот host, через который мы открывали. Проверяем. Всё заново всё открылось. Ну и давайте соберём какой-нибудь workflow, посмотрим, как он от это работает. Ну, например, для начала начнём с модель селектора. Давайте модель селектора настроим. Это, кстати, в новом обновлении 8N вышла. Эта тема тоже прикольная. Давайте что-нибудь напишем типа олама. То есть, если мы будем писать олама, пока что его остановим, то есть ничего не надо делать. Что мы тут сделаем? Мы в модели селекторе пропишем правила под нашу модель. Вот это будет под вторую модель, а первую модель. У нас вот есть чат input. Давайте его перетащим вот сюда. В случае, если наш чат input равен allama, мы будем вызывать нашу модель первую. Наша модель первая - это нет, наоборот, тогда это модель два будет. То есть модель два в случае, если наш чат input будет равен олама, то у нас будет вызываться вот эта наша модель. Давайте даже не так сделаем, не будет равен, а contains типа содержит. То есть, если мы напишем что-нибудь типа алама и дальше какой-то текст. То есть, если в предложении содержится вот это слово, то у нас будет подвязываться наша вторая модель Алама. А если а для первой модели что-нибудь сделаем, то же самое, ну, давайте напишем gpt-oss. И то же самое. Возьмём чат, тоже вот сюда поставим. И тоже поставим contains. Всё, отлично. Больше тут нет смысла что-то добавлять. Можно заметку сделать. заметка и поставить display, чтобы она вот тут отображалась. Видите, заметка написано. Теперь, что мы делаем? У нас есть селектор модели. И давайте проверим, как он работает. Почему бы и нет? Напишем, например, опять Олама. Видим то, что он зовёт Аламу. О, я услышал, как мой компьютер зашипел, потому что лама начала через квен обрабатывать запрос. Вот. О, отвечаю. Он только что скинул мне ответ, и у меня сразу перестал шуметь компьютер. Вот он ответил нам на английском и написал очень длинный промт. Ну, понятно, почему он шумел, потому что он пишет очень длинный промт. Всё. А если мы вызываем, получается, а, наш GPT OS, давайте напишем GPT OS, то он, видите, зайёт другую модель. То есть тоже прикольная штучка в обновлении N8N вышла. И сейчас нам GPT OS что-то ответит. И вот GPT OS нам ответил. тоже очень длинный текст, да, написал нам очень длинный текст. Смотрите, что ещё можно сделать. Можно ещё включить тут enable fullback model. То есть, чтобы у нас на случае, если тут где-то возникла ошибка, запускалась ещё одна модель. И давайте мы тут скопируем то же самое, поставим comm C, Command V, просто ниже. Всё. А вот тут поменяем на модель. А давайте не 120B, а на 20B. То есть GPT, а получается ОС. Ну вот gpt-oss-20b. Прикольно. То есть, ну, на всякий случай, хотя ошибки сейчас не должны возникать. И в качестве тула поставим ещё одного иагента, который будет пользоваться вот этой модель, вот этой моделью. А вот и посмотрим, как оно сработает. Да, нормально сработает. И мемори сюда же подключим. Почему нет? Ну,
Разбор каждого узла в n8n. Подключаем тулы к ИИ агенту
а если вы хотите научиться более глубоко пользоваться N8N, то можете подписаться на мою приватку, там углублённые материалы. И сейчас идёт рубрика узел дня, где мы разбираем постепенно, начиная с триггеров, мы разбираем каждый узел в N8N. У меня план разобрать, ну, каждый узел в N8N. Каждый узел разбирается в формате либо видео, ну, не особо длинного, там по 30, по 20 минут, либо в формате поста, если узел совсем небольшой. Вот как, например, вот этот вот узел или вот этот вот узел. Тут особо рассказывать нечего, но там, несмотря на это, есть интересные фишки, которые вы не знали. Я почти в этом уверен. На самом деле, если вы хотите хорошо изучить CMN, вам нужно в первую очередь разобраться с тем, какие у него есть основные возможности, базовый функционал. А для этого нужно изучать узлы в N8N. Вот вам причина подписаться на мою приватку, но там, на самом деле, прикольно. Подписывайтесь. Давайте подключим какие-нибудь тулы, наконец-то. То есть, чтобы посмотреть, как агент работает с тулами. Здесь поставим, чтобы моделька сама определяла, какой отправить промт. Вот эта моделька, чтобы определяла, какой ей отправить промт. И в качестве тулов поставим тут что-нибудь типа, ну, короче, надо сравнить, насколько хорошо получается наша GPT ОOS оперирует тулами, то есть насколько она подходит для того, чтобы использовать там в качестве агента. Для этого нужно выбрать какие-нибудь тулы, так как у меня локально, я только что это же локально развернул, но у меня тут ничего не подключено, никаких криеншелов, поэтому надо придумать, какие тулы поставить. А давайте, например, подключим diple тоже надо будет вести сейчас credential. То есть, чтобы что-то перевести, сейчас напишем описание. Подключим квадрант, чтобы найти что-то векторной базе данных. Давайте подключим. Ну да, я сейчас всё подключу. То есть будет, будет квадрант. Здесь будет, ну, давайте перплексити, чтобы делать ресерчи. Так, отлично. То есть сейчас надо подключить тут все наши кденту. Deeple, если вы не знаете, это такой переводчик. Жмёте на credential, жмёте сюда. И здесь у меня free plan. То есть, ну, короче, он даёт, э, на какое-то ограниченное количество в месяц свой API бесплатно. Тоже поставим перевод автоматически. Ну, давайте пропишем, наверное, тут что-нибудь. Target name. А, сейчас оно должно загрузиться. Target. Target language. В смысле? Refrhist нажмём. А, всё, теперь всё нормально. Target lange. Ну, давайте, естественно, English бритиш пусть будет. Теперь de есть. Теперь надо perplexity подключить. Перплексе, если вы не знали, если у вас есть тоже про план, она вам даёт 5 долларов, по-моему, по API бесплатных. Так вот, я достал API ключ, а у меня там есть 4 доллара или сколько там ещё доступно отпла, чтобы, ой, от перплексити, чтобы ресрчить в интернете, если вы не знаете, что это. Это штука, чтобы ресрчить в интернете. И давайте подключим квадрант тоже. Я сейчас добавлю свой опять ключ. Так, я подключил квадрант. А тут мы пропишем просто промт нашему и агенту. Ну, давайте напишем тут что-нибудь типа преобразуй запрос пользователя в простой понятный текст, чтобы осталась только суть. То есть квадрант - это получается векторная база данных, чтобы найти в ней что-то. У меня тут уже есть готовая коллекция. Вот по ней будем искать. Здесь openi. А нам ещё и Open придётся подключить. Анг можно тоже локально поставить к себе на компьютер ламу. Но у меня та коллекция, в которую я создавал с помощью модели Openi. И получается то, что вы доставать, искать вашей векторной базе данных, э, должны с помощью той же embed модель, с помощью которой вы загружали туда данные, иначе она просто сломается. Так, Open I подключил. Здесь выбираем модель ending small. Всё нормально. То есть мы подключили наших три инструмента и а переименуем каждого из них. Вот это я назову просто perplexity. Вот это будет квадрант. это будет просто de и напишем ему краткую инструкцию и добавим тут что-нибудь. То есть это будет инпут от нашего вот этого и агента к этому и иагенту. И здесь мы пропишем, получается, ты и агент, у тебя есть следующие тулы. И пропишем какие у него тулы есть. Ну пусть будет, пусть будет. В смысле пусть будет, они уже есть. Perplexity используют для поиска в интернете. Квадрант используй для поиска векторной базе данных. Там, кстати, инфа про N8N, поэтому давайте вот напишем ещё всегда используй, если речь идёт про N8N. И посмотрим, как он отработает. Используй, если надо перевести что-то на английский язык. Ну и давайте пока что, да, вот так базово протестим, как справляется наша моделька. Получается, с этим всем можем System пром добавить просто что-нибудь типа отвечай всегда коротко. Всё, давайте сначала протестим, какая тут модель у нас подключена. GPT OS 20B, а здесь подключена GPT OS. Давайте тут тоже 20B поставим. Так, интересненько будто бы. Всё, настало время тестить. Пишем что-нибудь, типа привет. Напишем GPT OS. Всё, должно сработать. Сейчас он ищет инфу. Вот. Привет. Чем могу помочь? И давайте тут добавим в этом промте при каждом запросе пользователя вызывай tool AI agent и посмотрим, как это сработает. Напишем типа пишем GPT OS, потому что мы такое условие поставили для модель селектора. Можно на самом деле нормально какое-нибудь поставить условие. Ну ладно, я так захотел что-то. GPT ОOS а найди в интернете инфу об этом. Ну давайте посмотрим, что он найдёт в интернете про GPTOS. То есть, да, он обращается к этому и агенту и да, он обратился к узлу Perplexity. То есть, в целом он отрабатывает GPT ОOS2B пока что более-менее. А, и ждём, пока он нам выдаст какой-то адекватный ответ. Блин, конечно, мешает то, что здесь окно маленькое. Так, всё, сработало. Так, GPT ос термин, обозначающий открытое по имитирующее GPT архитектуру GPT2. Угу. То есть, ну, он что-то нашёл в интернете, обратился к узлу Perplexity. Давайте посмотрим, что он сделал. Что здесь вытащил Perplexity? Он вытащил следующее. Угу. Ну, сработало. Не знаю, насколько это правдиливая информация, но то есть к перплексе он нормально обратился. Давайте теперь следующее сделаем. Пишем GPT ОOS. Переведи это на английский язык. Пусть он переведёт. Привет, меня зовут Володя. Проверяем возможности Open AI моделей с открытым исходным. Да, нормально. Кодом. Пусть так будет. и проверим, что он выдаст. Вот это я пока уберу, чтобы посмотреть, что он делает. То есть он опять же вызывает и агента, обращается к диплу. А, всё быстро сработало. Давайте посмотрим. Hey, my name is Valoria. Where is testing the capabilities of open models if open source code. Ну да, то есть как бы мы смотрим то, что в качестве агента он в целом тоже себя неплохо показывает. И это круто, потому что это получается, ну, либо вы её можете локально развернуть и делать там локальные для вас каких-то и агентов или автоматизации, которые нужны только вам, которые не требуют сервера, которые вы используете, например, только во время работы. То есть вы включаете компьютер, запускаете N8N, локально запускаете модельку, всё отлично работает. Если вы используете PPI, это тоже выгодно делать, потому что это просто самая дешёвая модель, вот которой мы сейчас пользуемся. Это самая дешёвая модель, которая по факту доступна сейчас от Open AI. Она, конечно, не самая дешёвая на рынке, но самая дешёвая - это Open AI. У Open AI всё-таки есть какая-то планка качества, и многие любят модели Open AI. И давайте попробуем квадрант тоже протестить. А давайте сделаем вот так. А, сделаем вот так и напишем: "Найди информацию про NN"N. " Хотя там, конечно, безусловно, суперпростые промты, но всё равно многие модели, ну, многие дешёвые модели могут на этом путаться, на самом деле. И давайте напишем не gpt-oss, а попробуем вот здесь, в этом агенте задействовать Квен. А какое у меня там условие, чтобы его задействовать? Алама. Да, всё. И вот тут напишем Олама. А если мы напишем и Ollama, и GPT. Ладно, давайте в следующем запросе попробуем. То есть, да, он задействует сейчас модель. У меня сейчас начнёт шумять компьютер явно. Я надеюсь, не обрубится запись, потому что у меня обрубалась запись из-за этого. Ну да, это, конечно, нужен вам мощный компьютер, чтобы такое вывозить. У меня уже устаревший всё-таки очень долго что-то он отвечает, тупит. Если что, я просто его выключу, потому что у меня иначе запись обрубится. Ладно, давайте подождём ещё 10 секунд. Если ничего не произойдёт, то всё, я выключу. 1 2 3 4 5 6 7 О, смотрите, он сработал, но он не обратился реально. У меня вот в тот момент, когда он ответил, резко перестал ну эти кулеры в компьютере, в Макбуке перестали крутиться, потому что они шумели, перестали шуметь резко. Может быть, он и нормально справляется, но я не хочу тестить, на самом деле, потому что, ну, тут он ничего не вызвал, то есть он с этим плохо справился. Поэтому давайте сделаем то же самое и попросим GPT ос. Так, и проверим, что он сделает. Обращается вот к этому тулу. AI agent обращается сюда, не обратился квадранту, то есть он этого не понял. Это он перевёл. И инфу про GPT ОOS он отправил нам следующую. И про NM, да, наверное, что-то отправил. Да, он написал про N8N, но он не обратился к узлу квадрант. Хотя тут написано, да, типа нет, не тут написано, а вот тут написано. А квадрант всегда использую, если речь идёт про n8n. Хорошо, давайте напишем тогда по-другому. То есть, ну, видимо, нужно менять системный промт. Нет, остановим пока что. Скопируем тогда и напишем в квадрант. То есть найди информацию про NN в квадрант. Посмотрим, как он отработает. Так, есть. Всё, ищет в квадранте что-то. Нашёл, вытащил чанки и сейчас даст ответ. То есть возвращается сюда к этому агенту. Этот агент работает. Всё, ответ вернулся. Пл перевёл. Niceмен информация, векторная база данных. Пошла всякая информация, полезные ссылки и так далее. Короче, да, в целом для того, чтобы делать локальных иагентов, эта модель хорошо подходит. Даже если вам не нужны локальные иагенты, вы можете, ну, брать эту модель попI. Будет очень дешёво. И, кстати,
Как установить gpt-oss на свой сервер
как её установить на сервер к вам? Ну, не знаю, если вы собираетесь её поставить на сервер, вам, наверное, нужен очень мощный сервер. Чтобы что-то ставить на сервер, я всегда использую программу TMus. Про то, как установить N8 Man, quadrant, Superabase, там Postgrгress и всё остальное, я рассказывал в своём видео полный гай на RG. Вот тут где-то сейчас подсказка появится, тыкайте, там есть про эта часть. И алама там тоже в комплекте идёт. То есть аламу мы тоже ставим, там есть ссылка на репозиторий. Ну и для того, чтобы её подключить к себе на сервер эту модель, вы, получается, заходите в термис, смотрите инструкцию из того видео, где я рассказывал про то, как устанавливать аламу на сервер. И что вы делаете дальше? То есть у вас по факту установлена алама, и вы подвязываете модель, копируете, получается, команду. Команду я оставлю в Телеграме, наверное, у себя. То есть вот такая команда: Docker Excit Alama, Alama POL. И тут пишете название модели. Можно посмотреть, как она в аламе называется. Она называется GPT OS 20B. То есть пишете GPT тире ос двоето 20B. Всё, и у вас начинается установка. Она у меня уже, кстати, была установлена, поэтому быстро прошла. У меня даже мощности сервера не хватило на то, чтобы она нормально работала. Но если вы хотите на сервер установить и у вас мощный сервер, пожалуйста. Ну а если вы не можете оплачивать рублями и вследствие чего не можете подвязывать через пользу AI, получается, эту модель, вы можете её через Openутер задействовать. Она здесь тоже есть. То есть вот она тоже есть на Openроутере GPT OS20B. Она здесь тоже стоит дешевле, чем GPT5 min GPT 5 nano. GPT 5 nano от официального API OpenI - это самая дешёвая модель. Ну вот эта здесь тоже будет дешевле. И тут вы можете её ей пользоваться и оплачивать за доллары. А на этом всё. Спасибо за то, что посмотрели это видео. Смотрите и другие ролики на моём канале, например, вот это. Пока. Yeah.