Провайдеры моделей
Эта страница охватывает провайдеров LLM/моделей (а не каналы чата, такие как WhatsApp/Telegram). Для правил выбора моделей см. /concepts/models.
Быстрые правила
- Ссылки на модели используют provider/model (пример: opencode/claude-opus-4-5).
- Если вы установите agents.defaults.models, это станет списком разрешений.
- Помощники CLI: openclaw onboard, openclaw models list, openclaw models set <provider/model>.
Встроенные провайдеры (каталог pi-ai)
OpenClaw поставляется с каталогом pi-ai. Эти провайдеры не требуют конфигурации models.providers; просто установите auth + выберите модель.
OpenAI
- Провайдер: openai
- Auth: OPENAI_API_KEY
- Пример модели: openai/gpt-5.2
- CLI: openclaw onboard --auth-choice openai-api-key
{
agents: { defaults: { model: { primary: "openai/gpt-5.2" } } }
}
Anthropic
- Провайдер: anthropic
- Auth: ANTHROPIC_API_KEY или claude setup-token
- Пример модели: anthropic/claude-opus-4-5
- CLI: openclaw onboard --auth-choice token (вставить setup-token) или openclaw models auth paste-token --provider anthropic
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } }
}
OpenAI Code (Codex)
- Провайдер: openai-codex
- Auth: OAuth (ChatGPT)
- Пример модели: openai-codex/gpt-5.2
- CLI: openclaw onboard --auth-choice openai-codex или openclaw models auth login --provider openai-codex
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.2" } } }
}
OpenCode Zen
- Провайдер: opencode
- Auth: OPENCODE_API_KEY (или OPENCODE_ZEN_API_KEY)
- Пример модели: opencode/claude-opus-4-5
- CLI: openclaw onboard --auth-choice opencode-zen
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-5" } } }
}
Google Gemini (ключ API)
- Провайдер: google
- Auth: GEMINI_API_KEY
- Пример модели: google/gemini-3-pro-preview
- CLI: openclaw onboard --auth-choice gemini-api-key
Google Vertex / Antigravity / Gemini CLI
- Провайдеры: google-vertex, google-antigravity, google-gemini-cli
- Auth: Vertex использует gcloud ADC; Antigravity/Gemini CLI используют соответствующие потоки auth
- Antigravity OAuth поставляется как встроенный плагин (google-antigravity-auth, отключен по умолчанию).
- Включить: openclaw plugins enable google-antigravity-auth
- Вход: openclaw models auth login --provider google-antigravity --set-default
- Gemini CLI OAuth поставляется как встроенный плагин (google-gemini-cli-auth, отключен по умолчанию).
- Включить: openclaw plugins enable google-gemini-cli-auth
- Вход: openclaw models auth login --provider google-gemini-cli --set-default
- Примечание: вы не вставляете client id или secret в openclaw.json. Поток входа CLI сохраняет токены в профилях auth на хосте gateway.
Z.AI (GLM)
- Провайдер: zai
- Auth: ZAI_API_KEY
- Пример модели: zai/glm-4.7
- CLI: openclaw onboard --auth-choice zai-api-key
- Псевдонимы: z.ai/* и z-ai/* нормализуются в zai/*
Vercel AI Gateway
- Провайдер: vercel-ai-gateway
- Auth: AI_GATEWAY_API_KEY
- Пример модели: vercel-ai-gateway/anthropic/claude-opus-4.5
- CLI: openclaw onboard --auth-choice ai-gateway-api-key
Другие встроенные провайдеры
- OpenRouter: openrouter (OPENROUTER_API_KEY)
- Пример модели: openrouter/anthropic/claude-sonnet-4-5
- xAI: xai (XAI_API_KEY)
- Groq: groq (GROQ_API_KEY)
- Cerebras: cerebras (CEREBRAS_API_KEY)
- Модели GLM на Cerebras используют id zai-glm-4.7 и zai-glm-4.6.
- Базовый URL, совместимый с OpenAI: https://api.cerebras.ai/v1.
- Mistral: mistral (MISTRAL_API_KEY)
- GitHub Copilot: github-copilot (COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN)
Провайдеры через models.providers (пользовательские/базовый URL)
Используйте models.providers (или models.json) для добавления пользовательских провайдеров или прокси, совместимых с OpenAI/Anthropic.
Moonshot AI (Kimi)
Moonshot использует конечные точки, совместимые с OpenAI, поэтому настройте его как пользовательского провайдера:
- Провайдер: moonshot
- Auth: MOONSHOT_API_KEY
- Пример модели: moonshot/kimi-k2.5
- ID моделей Kimi K2:
- moonshot/kimi-k2.5
- moonshot/kimi-k2-0905-preview
- moonshot/kimi-k2-turbo-preview
- moonshot/kimi-k2-thinking
- moonshot/kimi-k2-thinking-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.5" } }
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }]
}
}
}
}
Kimi Code
Kimi Code использует выделенную конечную точку и ключ (отдельно от Moonshot):
- Провайдер: kimi-code
- Auth: KIMICODE_API_KEY
- Пример модели: kimi-code/kimi-for-coding
{
env: { KIMICODE_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi-code/kimi-for-coding" } }
},
models: {
mode: "merge",
providers: {
"kimi-code": {
baseUrl: "https://api.kimi.com/coding/v1",
apiKey: "${KIMICODE_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-for-coding", name: "Kimi For Coding" }]
}
}
}
}
Qwen OAuth (бесплатный уровень)
Qwen предоставляет OAuth-доступ к Qwen Coder + Vision через поток кода устройства. Включите встроенный плагин, затем войдите:
openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default
Ссылки на модели:
- qwen-portal/coder-model
- qwen-portal/vision-model
См. /providers/qwen для подробностей настройки и примечаний.
Synthetic
Synthetic предоставляет модели, совместимые с Anthropic, за провайдером synthetic:
- Провайдер: synthetic
- Auth: SYNTHETIC_API_KEY
- Пример модели: synthetic/hf:MiniMaxAI/MiniMax-M2.1
- CLI: openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.1" } }
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.1", name: "MiniMax M2.1" }]
}
}
}
}
MiniMax
MiniMax настраивается через models.providers, потому что он использует пользовательские конечные точки:
- MiniMax (совместимый с Anthropic): --auth-choice minimax-api
- Auth: MINIMAX_API_KEY
См. /providers/minimax для подробностей настройки, вариантов моделей и фрагментов конфигурации.
Ollama
Ollama - это локальная среда выполнения LLM, которая предоставляет API, совместимый с OpenAI:
- Провайдер: ollama
- Auth: Не требуется (локальный сервер)
- Пример модели: ollama/llama3.3
- Установка: https://ollama.ai
# Установите Ollama, затем загрузите модель:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } }
}
}
Ollama автоматически определяется при локальном запуске на http://127.0.0.1:11434/v1. См. /providers/ollama для рекомендаций по моделям и пользовательской конфигурации.
Локальные прокси (LM Studio, vLLM, LiteLLM и т.д.)
Пример (совместимый с OpenAI):
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.1-gs32" },
models: { "lmstudio/minimax-m2.1-gs32": { alias: "Minimax" } }
}
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "LMSTUDIO_KEY",
api: "openai-completions",
models: [
{
id: "minimax-m2.1-gs32",
name: "MiniMax M2.1",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192
}
]
}
}
}
}
Примечания:
- Для пользовательских провайдеров reasoning, input, cost, contextWindow и maxTokens необязательны.
Если опущены, OpenClaw использует значения по умолчанию:
- reasoning: false
- input: ["text"]
- cost: \{ input: 0, output: 0, cacheRead: 0, cacheWrite: 0 \}
- contextWindow: 200000
- maxTokens: 8192
- Рекомендуется: установите явные значения, соответствующие ограничениям вашего прокси/модели.
Примеры CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-5
openclaw models list
См. также: /gateway/configuration для полных примеров конфигурации.