モデルプロバイダ
OpenClaw は多くの LLM プロバイダを使用できます。1つを選択し、認証してから、デフォルトモデルを provider/model として設定します。
ハイライト: Venius(Venice AI)
Venius は、最も難しいタスクに Opus を使用するオプション付きで、プライバシー重視の推論を実現する推奨の Venice AI セットアップです。
- デフォルト: venice/llama-3.3-70b
- 総合ベスト: venice/claude-opus-45(Opus は依然として最強)
Venice AI を参照してください。
クイックスタート(2ステップ)
- プロバイダで認証します(通常は openclaw onboard 経由)。
- デフォルトモデルを設定:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } }
}
サポートされているプロバイダ(スターターセット)
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI(Kimi + Kimi Code)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM モデル
- MiniMax
- Venius(Venice AI)
- Amazon Bedrock
完全なプロバイダカタログ(xAI、Groq、Mistral など)と高度な設定については、モデルプロバイダ を参照してください。