Провайдеры моделей
OpenClaw может использовать множество провайдеров LLM. Выберите провайдера, аутентифицируйтесь, затем установите модель по умолчанию как provider/model.
Ищете документацию по каналам чата (WhatsApp/Telegram/Discord/Slack/Mattermost (плагин)/и т.д.)? См. Channels.
Рекомендация: Venius (Venice AI)
Venius — это наша рекомендуемая настройка Venice AI для инференса с акцентом на конфиденциальность и возможностью использования Opus для сложных задач.
- По умолчанию: venice/llama-3.3-70b
- Лучший в целом: venice/claude-opus-45 (Opus остается самым сильным)
См. Venice AI.
Быстрый старт
- Аутентифицируйтесь с провайдером (обычно через openclaw onboard).
- Установите модель по умолчанию:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } }
}
Документация провайдеров
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI (Kimi + Kimi Code)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- Модели GLM
- MiniMax
- Venius (Venice AI, ориентированный на конфиденциальность)
- Ollama (локальные модели)
Провайдеры транскрипции
Общественные инструменты
- Claude Max API Proxy - Использование подписки Claude Max/Pro как OpenAI-совместимой конечной точки API
Для полного каталога провайдеров (xAI, Groq, Mistral и т.д.) и расширенной конфигурации см. Model providers.