Вы прочитали 1 из 3 бесплатных методичек сегодня
Экстракт 03 февраля 2026

OpenClaw бесплатно: два способа настроить ИИ-ассистента без затрат на токены

Julian Goldie · Julian Goldie SEO Верифицирован 18:17

Пошаговая настройка OpenClaw (бывший Clawbot/Maltbook) с бесплатными моделями Minimax 2.1 и Kimi K2.5 через OAuth и Ollama

10 тезисов 5 заданий 8 цитат ⏱ 4 мин чтения 🎯 10 тезисов
YouTube Транскрипт Сохранить
Поделиться: TG WA VK X

Для AI-агентов и LLM

Экстракт доступен в структурированном Markdown. Скачать .md · JSON API · Site index

💡 Ключевые тезисы (10)

1 OpenClaw можно использовать полностью бесплатно двумя способами #
Существует два метода бесплатного запуска OpenClaw: через Minimax 2.1 с OAuth-авторизацией (бесплатный 7-дневный план) и через Kimi K2.5, запущенный локально через Ollama с облачной моделью. Оба метода решают проблему исчерпания токенов.
2 Minimax 2.1 с OAuth — самый простой способ начать #
OAuth-авторизация позволяет войти без API-ключа — достаточно нажать кнопку и авторизоваться. Система автоматически генерирует API-ключи. При регистрации предоставляется бесплатный 7-дневный кодинг-план.
3 Kimi K2.5 через Ollama — бесплатная альтернатива без ограничений по времени #
Kimi K2.5 — мощная open-source модель, которую можно запустить локально через Ollama с использованием облачного провайдера. В отличие от Minimax, здесь нет жёсткого 7-дневного ограничения, хотя лимиты использования облачного API всё же существуют.
4 Бесплатные модели не заменяют Opus 4.5 по качеству #
Opus 4.5 по-прежнему значительно превосходит бесплатные альтернативы по трём параметрам: качество ответов, личность модели и функциональные возможности. Например, Opus 4.5 может открывать программы локально, а Kimi K2.5 — нет.
5 Не используйте Anthropic OAuth — риск блокировки аккаунта #
Некоторые пользователи получили блокировку аккаунтов Anthropic при использовании OAuth с Anthropic. Компания Anthropic уже требовала от проекта сменить название трижды за 7 дней. Безопаснее использовать Minimax или Kimi.
6 Облачная модель Kimi K2.5 работает быстрее, чем API #
При использовании Kimi через обычный API (Moonshot) ответы приходят медленно. Через облачную модель в Ollama скорость ответов значительно выше. Это важный нюанс, который стоит учитывать при выборе способа подключения.
7 Комбинация моделей решает проблему лимитов #
Можно настроить автоматическое переключение между Minimax и Kimi K2.5 при исчерпании токенов одной из моделей. Также можно использовать разные модели для разных задач: одну по умолчанию, другую как суб-агент для кодинга.
8 Malt Worker — решение для безопасной настройки #
Для безопасного хостинга OpenClaw рекомендуется использовать Malt Worker через Cloudflare. Это обеспечивает три уровня защиты: изоляцию среды, верификацию по email и ручное одобрение каждого входа.
9 Чистая переустановка предотвращает конфликты API #
При смене провайдеров API рекомендуется полностью удалять и заново устанавливать OpenClaw. Переключение между API без переустановки может приводить к поломкам системы.
10 OpenClaw не требует выделенного компьютера #
Систему можно запускать на обычном рабочем ноутбуке. Нет необходимости в отдельном VPS или выделенной машине. Ollama работает локально, а OpenClaw подключается к облачной модели.

OpenClaw бесплатно: два способа настроить ИИ-ассистента без затрат на токены

Спикер: Julian Goldie | Длительность: 18:17

Транскрипт

Введение: проблема токенов и бесплатные решения

Julian Goldie представляет два бесплатных способа настройки OpenClaw (ранее известного как Maltbook AP и Clawbot). Основная проблема, с которой сталкиваются пользователи — высокая стоимость токенов и их быстрое исчерпание. Оба метода полностью решают эту проблему.

OpenClaw доступен через GitHub. Для демонстрации автор выполняет полную переустановку с нуля.

Метод 1: Minimax 2.1 с OAuth

Первый способ — использование Minimax 2.1 через OAuth-авторизацию (OAF — без API-ключа). Процесс:

  1. Запустить установку и выбрать OAuth
  2. Нажать «Global» — откроется страница авторизации
  3. Подтвердить вход — система автоматически сгенерирует API-ключи
  4. Выбрать модель Minimax 2.1 (current)
  5. Выбрать способ подключения: Discord, Telegram, WhatsApp, Slack или gateway
  6. Открыть веб-интерфейс и начать работу

При регистрации автоматически активируется бесплатный 7-дневный кодинг-план.

Важное предупреждение: не используйте OAuth с Anthropic. Некоторые пользователи получили блокировку аккаунтов. Anthropic уже трижды за неделю требовала от проекта сменить название.

Метод 2: Kimi K2.5 через Ollama

Второй способ — использование Kimi K2.5 через Ollama:

  1. Установить Ollama (бесплатное приложение)
  2. Загрузить модель Kimi K2.5 cloud
  3. Выполнить чистую установку OpenClaw
  4. Настроить gateway с Ollama
  5. Запустить OpenClaw CLI

Kimi K2.5 — одна из самых мощных бесплатных open-source моделей. Хорошо справляется с кодингом, особенно с UI, хотя не дотягивает до уровня Opus 4.5.

Важный нюанс: облачная модель через Ollama работает значительно быстрее, чем обычный API через Moonshot. Если вы испытываете медленные ответы через API — переключитесь на облачную модель.

Безопасность: Malt Worker

Для безопасного хостинга рекомендуется Malt Worker через Cloudflare:

  • Полная изоляция среды
  • Email-верификация перед входом
  • Ручное одобрение каждого подключения

Не нужен выделенный компьютер или VPS — система работает на обычном ноутбуке.

Комбинация моделей и суб-агенты

Можно настроить совместную работу моделей: Minimax 2.1 по умолчанию, Kimi K2.5 как суб-агент для кодинга. При исчерпании токенов одной модели система автоматически переключается на другую.

Практические задания

Задание 1: Установить OpenClaw с Minimax 2.1 через OAuth

Клонируйте репозиторий OpenClaw с GitHub. Запустите установку и выберите OAuth-авторизацию. При выборе модели выберите Minimax 2.1 (current). Пропустите настройку каналов (Discord, Telegram и т.д.) и выберите gateway. Откройте веб-интерфейс и проверьте работу, отправив тестовое сообщение.

Задание 2: Установить Ollama и загрузить Kimi K2.5

Скачайте и установите Ollama с официального сайта. Запустите Ollama. Загрузите модель Kimi K2.5 cloud командой в терминале. Убедитесь, что модель работает, проверив её статус в Ollama. Это подготовительный шаг перед подключением к OpenClaw.

Задание 3: Подключить Kimi K2.5 к OpenClaw через Ollama

Выполните чистую установку OpenClaw. В настройках выберите all providers, оставьте Minimax как текущий. После установки gateway-сервиса запустите OpenClaw CLI. Следуйте инструкциям настройки Ollama из документации. Проверьте работу, отправив тестовое сообщение в веб-интерфейсе.

Задание 4: Настроить переключение между моделями

Внутри OpenClaw настройте использование Minimax 2.1 как модели по умолчанию. Добавьте Kimi K2.5 как суб-агент для задач кодинга. Протестируйте переключение: отправьте обычный запрос (должен использовать Minimax) и запрос на написание кода (должен переключиться на Kimi). Убедитесь, что при исчерпании токенов одной модели система переключается на другую.

Задание 5: Обеспечить безопасность через Malt Worker

Изучите руководство по настройке Malt Worker через Cloudflare. Настройте изоляцию среды, чтобы OpenClaw работал в отдельном контейнере. Включите email-верификацию для всех входящих подключений. Настройте ручное одобрение запросов на вход. Протестируйте, попытавшись подключиться с другого устройства.

Лучшие цитаты

«Одна из вещей, которую я постоянно слышу от людей: слишком дорого по токенам, токены заканчиваются. Сегодня вы увидите два бесплатных способа использовать это.» — Julian Goldie

«Я бы не рекомендовал использовать OAuth с Anthropic. Некоторые люди получили блокировку аккаунтов, и Anthropic уже требовала сменить название трижды за 7 дней.» — Julian Goldie

«Opus 4.5 по-прежнему безоговорочно лучший: номер один по качеству ответов, номер два по личности, номер три по возможностям модели.» — Julian Goldie

«Если у вас есть Minimax и Kimi K2.5 и они могут переключаться, когда заканчиваются токены — в чём проблема? Никакой проблемы. Проще простого.» — Julian Goldie

«Kimi K2.5 — одна из самых мощных бесплатных open-source моделей, которая только что вышла. Она довольно хороша в кодинге, особенно UI.» — Julian Goldie

«При переключении API без переустановки система может сломаться. Она довольно легко ломается, если честно.» — Julian Goldie

«Я использовал Kimi через обычный API — безумно медленно. Через облачную модель в OpenClaw — значительно быстрее. Это важно учитывать.» — Julian Goldie

«Не нужен отдельный компьютер. Это может быть на вашем ноутбуке, который вы используете каждый день.» — Julian Goldie

🏋️ Практикум

0 / 5 выполнено

Установить OpenClaw с Minimax 2.1 через OAuth

Клонируйте репозиторий OpenClaw с GitHub. Запустите установку и выберите OAuth-авторизацию. При выборе модели выберите Minimax 2.1 (current). Пропустите настройку каналов (Discord, Telegram и т.д.) и выберите gateway. Откройте веб-интерфейс и проверьте работу, отправив тестовое сообщение.

Установить Ollama и загрузить Kimi K2.5

Скачайте и установите Ollama с официального сайта. Запустите Ollama. Загрузите модель Kimi K2.5 cloud командой в терминале. Убедитесь, что модель работает, проверив её статус в Ollama. Это подготовительный шаг перед подключением к OpenClaw.

Подключить Kimi K2.5 к OpenClaw через Ollama

Выполните чистую установку OpenClaw. В настройках выберите all providers, оставьте Minimax как текущий. После установки gateway-сервиса запустите OpenClaw CLI. Следуйте инструкциям настройки Ollama из документации. Проверьте работу, отправив тестовое сообщение в веб-интерфейсе.

Настроить переключение между моделями

Внутри OpenClaw настройте использование Minimax 2.1 как модели по умолчанию. Добавьте Kimi K2.5 как суб-агент для задач кодинга. Протестируйте переключение: отправьте обычный запрос (должен использовать Minimax) и запрос на написание кода (должен переключиться на Kimi). Убедитесь, что при исчерпании токенов одной модели система переключается на другую.

Обеспечить безопасность через Malt Worker

Изучите руководство по настройке Malt Worker через Cloudflare. Настройте изоляцию среды, чтобы OpenClaw работал в отдельном контейнере. Включите email-верификацию для всех входящих подключений. Настройте ручное одобрение запросов на вход. Протестируйте, попытавшись подключиться с другого устройства.

🎉
Все задания выполнены!
Отлично — знания превращены в навыки

💬 Цитаты (8)

«Одна из вещей, которую я постоянно слышу от людей: слишком дорого по токенам, токены заканчиваются. Сегодня вы увидите два бесплатных способа использовать это.» #

«Я бы не рекомендовал использовать OAuth с Anthropic. Некоторые люди получили блокировку аккаунтов, и Anthropic уже требовала сменить название трижды за 7 дней.» #

«Opus 4.5 по-прежнему безоговорочно лучший: номер один по качеству ответов, номер два по личности, номер три по возможностям модели.» #

«Если у вас есть Minimax и Kimi K2.5 и они могут переключаться, когда заканчиваются токены — в чём проблема? Никакой проблемы. Проще простого.» #

«Kimi K2.5 — одна из самых мощных бесплатных open-source моделей, которая только что вышла. Она довольно хороша в кодинге, особенно UI.» #

«При переключении API без переустановки система может сломаться. Она довольно легко ломается, если честно.» #

«Я использовал Kimi через обычный API — безумно медленно. Через облачную модель в OpenClaw — значительно быстрее. Это важно учитывать.» #

«Не нужен отдельный компьютер. Это может быть на вашем ноутбуке, который вы используете каждый день.» #

Похожие по теме

Читать далее

OpenClaw: ИИ-агент управляет вашим браузером — автоматизация без кода

Julian Goldie SEO

OpenClaw: ИИ-агент управляет вашим браузером — автоматизация без кода

Julian Goldie

Понравился экстракт?
Подписывайтесь — лучшие материалы каждую неделю.
Telegram Дайджест →

Поделитесь с коллегами

Telegram ВКонтакте X / Twitter
Открыть в Telegram

Экстракт Знаний в Telegram

Экстракты и дистилляты из лучших YouTube-каналов — сразу после публикации.

Подписаться

Дайджест Экстрактов

Лучшие методички за неделю — каждый понедельник