Venice AI (Venice highlight)
Venice 是我们推荐的 Venice 隐私优先推理设置,可选地通过匿名化访问专有模型。
Venice AI 提供隐私优先的 AI 推理,支持未经审查的模型,并通过其匿名化代理访问主要的专有模型。所有推理默认都是私密的——不用于训练你的数据,不记录日志。
为什么在 OpenClaw 中使用 Venice
- 开源模型的私密推理(无日志记录)。
- 需要时的未经审查模型。
- 当质量重要时,匿名访问专有模型 (Opus/GPT/Gemini)。
- OpenAI 兼容的 /v1 端点。
隐私模式
Venice 提供两个隐私级别——理解这一点是选择模型的关键:
| 模式 | 描述 | 模型 |
|---|---|---|
| Private (私密) | 完全私密。提示/响应从不存储或记录。临时的。 | Llama, Qwen, DeepSeek, Venice Uncensored 等 |
| Anonymized (匿名化) | 通过 Venice 代理,元数据被剥离。底层 provider (OpenAI, Anthropic) 看到匿名化的请求。 | Claude, GPT, Gemini, Grok, Kimi, MiniMax |
功能
- 隐私优先: 在"private"(完全私密)和"anonymized"(代理)模式之间选择
- 未经审查模型: 访问无内容限制的模型
- 主要模型访问: 通过 Venice 的匿名化代理使用 Claude, GPT-5.2, Gemini, Grok
- OpenAI 兼容 API: 标准 /v1 端点,便于集成
- Streaming (流式传输): ✅ 所有模型支持
- Function calling (函数调用): ✅ 选定模型支持(检查模型能力)
- Vision (视觉): ✅ 具有视觉能力的模型支持
- 无硬速率限制: 极端使用可能应用公平使用节流
设置
1. 获取 API Key
- 在 venice.ai 注册
- 前往 Settings → API Keys → Create new key
- 复制你的 API key (格式: vapi_xxxxxxxxxxxx)
2. 配置 OpenClaw
选项 A: 环境变量
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
选项 B: 交互式设置 (推荐)
openclaw onboard --auth-choice venice-api-key
这将:
- 提示输入你的 API key (或使用现有的 VENICE_API_KEY)
- 显示所有可用的 Venice 模型
- 让你选择默认模型
- 自动配置 provider
选项 C: 非交互式
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. 验证设置
openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"
模型选择
设置后,OpenClaw 显示所有可用的 Venice 模型。根据你的需求选择:
- 默认(我们的选择): venice/llama-3.3-70b 用于私密、平衡的性能。
- 最佳整体质量: venice/claude-opus-45 用于困难任务(Opus 仍然是最强的)。
- 隐私: 选择"private"模型进行完全私密推理。
- 能力: 选择"anonymized"模型通过 Venice 代理访问 Claude, GPT, Gemini。
随时更改默认模型:
openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b
列出所有可用模型:
openclaw models list | grep venice
通过 openclaw configure 配置
- 运行 openclaw configure
- 选择 Model/auth
- 选择 Venice AI
我应该使用哪个模型?
| 用例 | 推荐模型 | 原因 |
|---|---|---|
| 一般聊天 | llama-3.3-70b | 全面表现良好,完全私密 |
| 最佳整体质量 | claude-opus-45 | Opus 对困难任务仍然最强 |
| 隐私 + Claude 质量 | claude-opus-45 | 通过匿名化代理获得最佳推理 |
| 编码 | qwen3-coder-480b-a35b-instruct | 代码优化, 262k context |
| 视觉任务 | qwen3-vl-235b-a22b | 最佳私密视觉模型 |
| 未经审查 | venice-uncensored | 无内容限制 |
| 快速 + 便宜 | qwen3-4b | 轻量级,仍然有能力 |
| 复杂推理 | deepseek-v3.2 | 强大推理,私密 |
可用模型 (共 25 个)
Private 模型 (15 个) — 完全私密,无日志
| 模型 ID | 名称 | Context (tokens) | 功能 |
|---|---|---|---|
| llama-3.3-70b | Llama 3.3 70B | 131k | 通用 |
| llama-3.2-3b | Llama 3.2 3B | 131k | 快速,轻量级 |
| hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 131k | 复杂任务 |
| qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 131k | 推理 |
| qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 131k | 通用 |
| qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 262k | 代码 |
| qwen3-next-80b | Qwen3 Next 80B | 262k | 通用 |
| qwen3-vl-235b-a22b | Qwen3 VL 235B | 262k | 视觉 |
| qwen3-4b | Venice Small (Qwen3 4B) | 32k | 快速,推理 |
| deepseek-v3.2 | DeepSeek V3.2 | 163k | 推理 |
| venice-uncensored | Venice Uncensored | 32k | 未经审查 |
| mistral-31-24b | Venice Medium (Mistral) | 131k | 视觉 |
| google-gemma-3-27b-it | Gemma 3 27B Instruct | 202k | 视觉 |
| openai-gpt-oss-120b | OpenAI GPT OSS 120B | 131k | 通用 |
| zai-org-glm-4.7 | GLM 4.7 | 202k | 推理,多语言 |
Anonymized 模型 (10 个) — 通过 Venice 代理
| 模型 ID | 原始 | Context (tokens) | 功能 |
|---|---|---|---|
| claude-opus-45 | Claude Opus 4.5 | 202k | 推理,视觉 |
| claude-sonnet-45 | Claude Sonnet 4.5 | 202k | 推理,视觉 |
| openai-gpt-52 | GPT-5.2 | 262k | 推理 |
| openai-gpt-52-codex | GPT-5.2 Codex | 262k | 推理,视觉 |
| gemini-3-pro-preview | Gemini 3 Pro | 202k | 推理,视觉 |
| gemini-3-flash-preview | Gemini 3 Flash | 262k | 推理,视觉 |
| grok-41-fast | Grok 4.1 Fast | 262k | 推理,视觉 |
| grok-code-fast-1 | Grok Code Fast 1 | 262k | 推理,代码 |
| kimi-k2-thinking | Kimi K2 Thinking | 262k | 推理 |
| minimax-m21 | MiniMax M2.1 | 202k | 推理 |
模型发现
当设置了 VENICE_API_KEY 时,OpenClaw 会自动从 Venice API 发现模型。如果 API 不可达,它会回退到静态目录。
/models 端点是公开的(列出不需要认证),但推理需要有效的 API key。
Streaming (流式传输) 和工具支持
| 功能 | 支持 |
|---|---|
| Streaming | ✅ 所有模型 |
| Function calling | ✅ 大多数模型(在 API 中检查 supportsFunctionCalling) |
| Vision/Images | ✅ 标记为"Vision"功能的模型 |
| JSON mode | ✅ 通过 response_format 支持 |
定价
Venice 使用基于积分的系统。查看 venice.ai/pricing 了解当前费率:
- Private 模型: 通常成本较低
- Anonymized 模型: 与直接 API 定价类似 + 小额 Venice 费用
对比: Venice vs 直接 API
| 方面 | Venice (Anonymized) | 直接 API |
|---|---|---|
| 隐私 | 元数据剥离,匿名化 | 你的账户关联 |
| 延迟 | +10-50ms (代理) | 直连 |
| 功能 | 大多数功能支持 | 完整功能 |
| 计费 | Venice 积分 | Provider 计费 |
使用示例
# 使用默认私密模型
openclaw chat --model venice/llama-3.3-70b
# 通过 Venice 使用 Claude (匿名化)
openclaw chat --model venice/claude-opus-45
# 使用未经审查模型
openclaw chat --model venice/venice-uncensored
# 使用视觉模型处理图像
openclaw chat --model venice/qwen3-vl-235b-a22b
# 使用编码模型
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct
故障排除
API key 未识别
echo $VENICE_API_KEY
openclaw models list | grep venice
确保 key 以 vapi_ 开头。
模型不可用
Venice 模型目录动态更新。运行 openclaw models list 查看当前可用的模型。某些模型可能暂时离线。
连接问题
Venice API 地址是 https://api.venice.ai/api/v1。确保你的网络允许 HTTPS 连接。
配置文件示例
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "llama-3.3-70b",
name: "Llama 3.3 70B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 131072,
maxTokens: 8192
}
]
}
}
}
}