Model providers

このページでは LLM/model provider(WhatsApp/Telegram などの chat channel ではない)について説明します。 Model selection rule については、/concepts/models を参照してください。

Quick rule

  • Model ref は provider/model を使用します(例:opencode/claude-opus-4-5)。
  • agents.defaults.models を設定すると、それが allowlist(許可リスト)になります。
  • CLI helper:openclaw onboardopenclaw models listopenclaw models set <provider/model>

Built-in provider(pi-ai catalog)

OpenClaw には pi-ai catalog が付属しています。これらの provider は models.providers config を必要としません。auth を設定して model を選択するだけです。

OpenAI

  • Provider:openai
  • Auth:OPENAI_API_KEY
  • 例の model:openai/gpt-5.2
  • CLI:openclaw onboard --auth-choice openai-api-key
{
  agents: { defaults: { model: { primary: "openai/gpt-5.2" } } }
}

Anthropic

  • Provider:anthropic
  • Auth:ANTHROPIC_API_KEY または claude setup-token
  • 例の model:anthropic/claude-opus-4-5
  • CLI:openclaw onboard --auth-choice token(setup-token を paste)または openclaw models auth paste-token --provider anthropic
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } }
}

OpenAI Code(Codex)

  • Provider:openai-codex
  • Auth:OAuth(ChatGPT)
  • 例の model:openai-codex/gpt-5.2
  • CLI:openclaw onboard --auth-choice openai-codex または openclaw models auth login --provider openai-codex
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.2" } } }
}

OpenCode Zen

  • Provider:opencode
  • Auth:OPENCODE_API_KEY(または OPENCODE_ZEN_API_KEY
  • 例の model:opencode/claude-opus-4-5
  • CLI:openclaw onboard --auth-choice opencode-zen
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-5" } } }
}

Google Gemini(API key)

  • Provider:google
  • Auth:GEMINI_API_KEY
  • 例の model:google/gemini-3-pro-preview
  • CLI:openclaw onboard --auth-choice gemini-api-key

Google Vertex / Antigravity / Gemini CLI

  • Provider:google-vertexgoogle-antigravitygoogle-gemini-cli
  • Auth:Vertex は gcloud ADC を使用。Antigravity/Gemini CLI はそれぞれの auth flow を使用
  • Antigravity OAuth は bundled plugin として shipped されています(google-antigravity-auth、デフォルトでは無効)。
    • 有効化:openclaw plugins enable google-antigravity-auth
    • Login:openclaw models auth login --provider google-antigravity --set-default
  • Gemini CLI OAuth は bundled plugin として shipped されています(google-gemini-cli-auth、デフォルトでは無効)。
    • 有効化:openclaw plugins enable google-gemini-cli-auth
    • Login:openclaw models auth login --provider google-gemini-cli --set-default
    • 注意:client id または secret を openclaw.json に paste する必要はありません。CLI login flow は token を gateway host の auth profile に保存します。

Z.AI(GLM)

  • Provider:zai
  • Auth:ZAI_API_KEY
  • 例の model:zai/glm-4.7
  • CLI:openclaw onboard --auth-choice zai-api-key
    • Alias:z.ai/*z-ai/*zai/* に normalize されます

Vercel AI Gateway

  • Provider:vercel-ai-gateway
  • Auth:AI_GATEWAY_API_KEY
  • 例の model:vercel-ai-gateway/anthropic/claude-opus-4.5
  • CLI:openclaw onboard --auth-choice ai-gateway-api-key

Other built-in provider

  • OpenRouter:openrouterOPENROUTER_API_KEY
  • 例の model:openrouter/anthropic/claude-sonnet-4-5
  • xAI:xaiXAI_API_KEY
  • Groq:groqGROQ_API_KEY
  • Cerebras:cerebrasCEREBRAS_API_KEY
    • Cerebras の GLM model は id zai-glm-4.7zai-glm-4.6 を使用します。
    • OpenAI 互換 base URL:https://api.cerebras.ai/v1
  • Mistral:mistralMISTRAL_API_KEY
  • GitHub Copilot:github-copilotCOPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN

models.providers による provider(custom/base URL)

models.providers(または models.json)を使用して custom provider または OpenAI/Anthropic 互換 proxy を追加します。

Moonshot AI(Kimi)

Moonshot は OpenAI 互換エンドポイントを使用するため、custom provider として設定します:

  • Provider:moonshot
  • Auth:MOONSHOT_API_KEY
  • 例の model:moonshot/kimi-k2.5
  • Kimi K2 model ID:
    • moonshot/kimi-k2.5
    • moonshot/kimi-k2-0905-preview
    • moonshot/kimi-k2-turbo-preview
    • moonshot/kimi-k2-thinking
    • moonshot/kimi-k2-thinking-turbo
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } }
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }]
      }
    }
  }
}

Kimi Code

Kimi Code は専用エンドポイントと key を使用します(Moonshot とは別):

  • Provider:kimi-code
  • Auth:KIMICODE_API_KEY
  • 例の model:kimi-code/kimi-for-coding
{
  env: { KIMICODE_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi-code/kimi-for-coding" } }
  },
  models: {
    mode: "merge",
    providers: {
      "kimi-code": {
        baseUrl: "https://api.kimi.com/coding/v1",
        apiKey: "${KIMICODE_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-for-coding", name: "Kimi For Coding" }]
      }
    }
  }
}

Qwen OAuth(free tier)

Qwen は device-code flow を介して Qwen Coder + Vision への OAuth access を提供します。 Bundled plugin を有効にしてから、login してください:

openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default

Model ref:

  • qwen-portal/coder-model
  • qwen-portal/vision-model

Setup の詳細と注意については /providers/qwen を参照してください。

Synthetic

Synthetic は synthetic provider の背後に Anthropic 互換 model を提供します:

  • Provider:synthetic
  • Auth:SYNTHETIC_API_KEY
  • 例の model:synthetic/hf:MiniMaxAI/MiniMax-M2.1
  • CLI:openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.1" } }
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.1", name: "MiniMax M2.1" }]
      }
    }
  }
}

MiniMax

MiniMax は custom endpoint を使用するため、models.providers を介して設定されます:

  • MiniMax(Anthropic 互換):--auth-choice minimax-api
  • Auth:MINIMAX_API_KEY

Setup の詳細、model option、config snippet については /providers/minimax を参照してください。

Ollama

Ollama は OpenAI 互換 API を提供する local LLM runtime です:

  • Provider:ollama
  • Auth:不要(local server)
  • 例の model:ollama/llama3.3
  • インストール:https://ollama.ai
# Ollama をインストールしてから、model を pull します:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } }
  }
}

Ollama は http://127.0.0.1:11434/v1 で locally 実行されているときに自動検出されます。Model recommendation と custom configuration については /providers/ollama を参照してください。

Local proxy(LM Studio、vLLM、LiteLLM など)

例(OpenAI 互換):

{
  agents: {
    defaults: {
      model: { primary: "lmstudio/minimax-m2.1-gs32" },
      models: { "lmstudio/minimax-m2.1-gs32": { alias: "Minimax" } }
    }
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "LMSTUDIO_KEY",
        api: "openai-completions",
        models: [
          {
            id: "minimax-m2.1-gs32",
            name: "MiniMax M2.1",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192
          }
        ]
      }
    }
  }
}

注意:

  • Custom provider の場合、reasoninginputcostcontextWindowmaxTokens はオプションです。 省略すると、OpenClaw はデフォルトで次のようになります:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • 推奨:proxy/model limit に一致する explicit value を設定してください。

CLI 例

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-5
openclaw models list

完全な configuration 例については /gateway/configuration も参照してください。