모델 제공자
OpenClaw는 다양한 LLM 제공자를 사용할 수 있습니다. 제공자를 선택하고 인증한 후 provider/model 형식으로 기본 모델을 설정하세요.
채팅 채널 문서(WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/등)를 찾으시나요? Channels를 참조하세요.
주목: Venius (Venice AI)
Venius는 프라이버시 우선 추론을 위한 Venice AI 설정으로, 어려운 작업에는 Opus를 사용할 수 있는 옵션을 제공합니다.
- 기본: venice/llama-3.3-70b
- 최고 성능: venice/claude-opus-45 (Opus가 여전히 가장 강력합니다)
Venice AI를 참조하세요.
빠른 시작
- 제공자로 인증합니다(보통 openclaw onboard를 통해).
- 기본 모델을 설정합니다:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } }
}
Provider 문서
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI (Kimi + Kimi Code)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venius (Venice AI, privacy-focused)
- Ollama (local models)
전사 제공자
커뮤니티 도구
- Claude Max API Proxy - Claude Max/Pro 구독을 OpenAI 호환 API 엔드포인트로 사용
전체 제공자 목록(xAI, Groq, Mistral 등) 및 고급 설정은 Model providers를 참조하세요.