Канал

Docker Model Runner: локальный ИИ без затрат на API

Docker Model Runner (DMR) --- встроенный инструмент Docker Desktop для локального запуска языковых моделей. В отличие от облачных провайдеров, все данные остаются на вашем компьютере, а затраты на API --- нулевые.

Когда использовать DMR, а когда облако

СценарийРекомендация
Максимальная приватностьDMR --- данные не покидают машину
Нулевые затратыDMR --- только электричество
Лучшее качество ответовОблако --- Claude Opus, GPT-5 по-прежнему сильнее
Работа офлайнDMR --- после загрузки модели интернет не нужен
Слабое оборудованиеОблако --- нет требований к GPU/RAM
Быстрая настройкаОблако --- достаточно API-ключа

Вывод: DMR отлично подходит для личного использования с упором на приватность, разработки и обучения. Для продакшн-задач, требующих максимального качества, облачные провайдеры пока сильнее.

Системные требования

ПлатформаТребования
macOSApple Silicon (M1/M2/M3/M4)
WindowsNVIDIA GPU (драйвер 576.57+) или Qualcomm Adreno
LinuxCPU, NVIDIA (CUDA), AMD (ROCm) или Vulkan

Сколько нужно памяти

Размер моделиRAMДля чего подойдёт
1—3B параметров8 ГББыстрые ответы, простые задачи
7—8B параметров16 ГБУниверсальный помощник, помощь с кодом
13B+ параметров32 ГБ+Сложные рассуждения, длинный контекст

Установка

Шаг 1. Docker Desktop 4.40+

Docker Model Runner требует Docker Desktop версии 4.40 или новее.

docker --version

Если версия старая --- обновите через docker.com/products/docker-desktop или:

# macOS через Homebrew
brew upgrade --cask docker

Шаг 2. Включение Model Runner

  1. Откройте Docker Desktop
  2. Перейдите в Settings (значок шестерёнки)
  3. Features in developmentBeta features
  4. Включите Docker Model Runner
  5. Нажмите Apply & restart

Или через CLI:

docker desktop enable model-runner --tcp 12434

Шаг 3. Проверка

docker model list

Если команда отработала без ошибок --- Model Runner активен.

Загрузка и тест модели

Рекомендуемые модели

МодельДля чегоКоманда
ai/qwen2.5-coderПомощь с кодом (проверенная)docker model pull ai/qwen2.5-coder
ai/llama3.2Общение, универсальные задачиdocker model pull ai/llama3.2
ai/mistralБыстрые ответы, баланс скорость/качествоdocker model pull ai/mistral
ai/gemma2Открытая модель Googledocker model pull ai/gemma2
ai/deepseek-r1Продвинутые рассужденияdocker model pull ai/deepseek-r1

Начните с ai/qwen2.5-coder --- хороший баланс качества и потребления ресурсов.

Тест модели

docker model pull ai/qwen2.5-coder
docker model run ai/qwen2.5-coder "Что такое рекурсия?"

Ответ должен появиться через 10—30 секунд (первый запуск --- загрузка модели в память).

Настройка OpenClaw

Укажите OpenClaw использовать локальную модель вместо облачного провайдера:

openclaw config set provider.name openai
openclaw config set provider.baseUrl http://model-runner.docker.internal/v1
openclaw config set provider.model ai/qwen2.5-coder
openclaw config set provider.apiKey "not-needed"

Примечание: model-runner.docker.internal --- специальное имя хоста, доступное внутри Docker. Если OpenClaw запущен вне Docker, используйте http://localhost:12434/v1.

Проверка

openclaw status

DMR vs Ollama

Оба инструмента запускают локальные модели, но подход разный.

КритерийDocker Model RunnerOllama
УстановкаВстроен в Docker DesktopОтдельное приложение
Управление ресурсамиАвтоматическое (загрузка по запросу, выгрузка при простое)Ручное
GPU-ускорениеMetal, CUDA, ROCm, Vulkan --- автоопределениеMetal, CUDA --- требует настройки
APIOpenAI-совместимыйСвой + OpenAI-совместимый
Движки инференсаllama.cpp, vLLM, Diffusersllama.cpp
Для когоПользователи Docker DesktopВсе

Если Docker Desktop уже установлен --- DMR проще, потому что не требует отдельного приложения. Если Docker нет --- Ollama проще в установке.

Комбинирование с облаком

Можно использовать локальную модель для повседневных задач и переключаться на облако для сложных:

# Переключение на локальную модель
openclaw config set provider.baseUrl http://model-runner.docker.internal/v1
openclaw config set provider.model ai/qwen2.5-coder

# Переключение на облако
openclaw config set provider.baseUrl https://api.anthropic.com
openclaw config set provider.model claude-sonnet-4-20250514

Или используйте OpenRouter для автоматической маршрутизации между моделями.

Ограничения

  • Качество: локальные модели 7B—13B слабее Claude Opus и GPT-5 в сложных задачах
  • Контекст: обычно 4K—8K токенов (облачные модели --- 100K+)
  • Tool calls: не все локальные модели корректно работают с вызовами инструментов
  • Первый ответ: 10—30 секунд на загрузку модели в память
  • RAM: модель занимает 4—16 ГБ в памяти пока активна

Устранение неполадок

«Connection refused» --- убедитесь, что Docker Desktop запущен и Model Runner включён.

Медленные ответы --- проверьте доступную RAM. Если модель не помещается в память, она использует swap, что в разы медленнее. Попробуйте модель меньшего размера.

«Model not found» --- имя в конфиге OpenClaw должно совпадать с загруженной моделью:

docker model list

Высокое потребление памяти --- модели остаются загруженными для быстрых ответов. Для выгрузки:

docker model stop --all

Что дальше

Следите за OpenClaw на русском

Разбираем обновления, пишем гайды, делимся кейсами

Подписаться на канал Задать вопрос в чате
Присоединяйтесь к сообществу