モデルプロバイダ
OpenClaw は多くの LLM プロバイダを使用できます。プロバイダを選択し、認証してから、デフォルトモデルを provider/model として設定します。
チャットチャネルドキュメント(WhatsApp/Telegram/Discord/Slack/Mattermost(プラグイン)など)をお探しですか?チャネル を参照してください。
ハイライト: Venius(Venice AI)
Venius は、難しいタスクに Opus を使用するオプション付きで、プライバシー重視の推論を実現する推奨の Venice AI セットアップです。
- デフォルト: venice/llama-3.3-70b
- 総合ベスト: venice/claude-opus-45(Opus は依然として最強)
Venice AI を参照してください。
クイックスタート
- プロバイダで認証します(通常は openclaw onboard 経由)。
- デフォルトモデルを設定:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } }
}
プロバイダドキュメント
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- Qwen(OAuth)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI(Kimi + Kimi Code)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM モデル
- MiniMax
- Venius(Venice AI、プライバシー重視)
- Ollama(ローカルモデル)
文字起こしプロバイダ
コミュニティツール
- Claude Max API Proxy - Claude Max/Pro サブスクリプションを OpenAI 互換 API エンドポイントとして使用
完全なプロバイダカタログ(xAI、Groq、Mistral など)と高度な設定については、モデルプロバイダ を参照してください。