Venice AI (Venice highlight)

Venice 是我们推荐的 Venice 隐私优先推理设置,可选地通过匿名化访问专有模型。

Venice AI 提供隐私优先的 AI 推理,支持未经审查的模型,并通过其匿名化代理访问主要的专有模型。所有推理默认都是私密的——不用于训练你的数据,不记录日志。

为什么在 OpenClaw 中使用 Venice

  • 开源模型的私密推理(无日志记录)。
  • 需要时的未经审查模型
  • 当质量重要时,匿名访问专有模型 (Opus/GPT/Gemini)。
  • OpenAI 兼容的 /v1 端点。

隐私模式

Venice 提供两个隐私级别——理解这一点是选择模型的关键:

模式描述模型
Private (私密)完全私密。提示/响应从不存储或记录。临时的。Llama, Qwen, DeepSeek, Venice Uncensored 等
Anonymized (匿名化)通过 Venice 代理,元数据被剥离。底层 provider (OpenAI, Anthropic) 看到匿名化的请求。Claude, GPT, Gemini, Grok, Kimi, MiniMax

功能

  • 隐私优先: 在"private"(完全私密)和"anonymized"(代理)模式之间选择
  • 未经审查模型: 访问无内容限制的模型
  • 主要模型访问: 通过 Venice 的匿名化代理使用 Claude, GPT-5.2, Gemini, Grok
  • OpenAI 兼容 API: 标准 /v1 端点,便于集成
  • Streaming (流式传输): ✅ 所有模型支持
  • Function calling (函数调用): ✅ 选定模型支持(检查模型能力)
  • Vision (视觉): ✅ 具有视觉能力的模型支持
  • 无硬速率限制: 极端使用可能应用公平使用节流

设置

1. 获取 API Key

  1. venice.ai 注册
  2. 前往 Settings → API Keys → Create new key
  3. 复制你的 API key (格式: vapi_xxxxxxxxxxxx)

2. 配置 OpenClaw

选项 A: 环境变量

export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

选项 B: 交互式设置 (推荐)

openclaw onboard --auth-choice venice-api-key

这将:

  1. 提示输入你的 API key (或使用现有的 VENICE_API_KEY)
  2. 显示所有可用的 Venice 模型
  3. 让你选择默认模型
  4. 自动配置 provider

选项 C: 非交互式

openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. 验证设置

openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"

模型选择

设置后,OpenClaw 显示所有可用的 Venice 模型。根据你的需求选择:

  • 默认(我们的选择): venice/llama-3.3-70b 用于私密、平衡的性能。
  • 最佳整体质量: venice/claude-opus-45 用于困难任务(Opus 仍然是最强的)。
  • 隐私: 选择"private"模型进行完全私密推理。
  • 能力: 选择"anonymized"模型通过 Venice 代理访问 Claude, GPT, Gemini。

随时更改默认模型:

openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b

列出所有可用模型:

openclaw models list | grep venice

通过 openclaw configure 配置

  1. 运行 openclaw configure
  2. 选择 Model/auth
  3. 选择 Venice AI

我应该使用哪个模型?

用例推荐模型原因
一般聊天llama-3.3-70b全面表现良好,完全私密
最佳整体质量claude-opus-45Opus 对困难任务仍然最强
隐私 + Claude 质量claude-opus-45通过匿名化代理获得最佳推理
编码qwen3-coder-480b-a35b-instruct代码优化, 262k context
视觉任务qwen3-vl-235b-a22b最佳私密视觉模型
未经审查venice-uncensored无内容限制
快速 + 便宜qwen3-4b轻量级,仍然有能力
复杂推理deepseek-v3.2强大推理,私密

可用模型 (共 25 个)

Private 模型 (15 个) — 完全私密,无日志

模型 ID名称Context (tokens)功能
llama-3.3-70bLlama 3.3 70B131k通用
llama-3.2-3bLlama 3.2 3B131k快速,轻量级
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B131k复杂任务
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking131k推理
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct131k通用
qwen3-coder-480b-a35b-instructQwen3 Coder 480B262k代码
qwen3-next-80bQwen3 Next 80B262k通用
qwen3-vl-235b-a22bQwen3 VL 235B262k视觉
qwen3-4bVenice Small (Qwen3 4B)32k快速,推理
deepseek-v3.2DeepSeek V3.2163k推理
venice-uncensoredVenice Uncensored32k未经审查
mistral-31-24bVenice Medium (Mistral)131k视觉
google-gemma-3-27b-itGemma 3 27B Instruct202k视觉
openai-gpt-oss-120bOpenAI GPT OSS 120B131k通用
zai-org-glm-4.7GLM 4.7202k推理,多语言

Anonymized 模型 (10 个) — 通过 Venice 代理

模型 ID原始Context (tokens)功能
claude-opus-45Claude Opus 4.5202k推理,视觉
claude-sonnet-45Claude Sonnet 4.5202k推理,视觉
openai-gpt-52GPT-5.2262k推理
openai-gpt-52-codexGPT-5.2 Codex262k推理,视觉
gemini-3-pro-previewGemini 3 Pro202k推理,视觉
gemini-3-flash-previewGemini 3 Flash262k推理,视觉
grok-41-fastGrok 4.1 Fast262k推理,视觉
grok-code-fast-1Grok Code Fast 1262k推理,代码
kimi-k2-thinkingKimi K2 Thinking262k推理
minimax-m21MiniMax M2.1202k推理

模型发现

当设置了 VENICE_API_KEY 时,OpenClaw 会自动从 Venice API 发现模型。如果 API 不可达,它会回退到静态目录。

/models 端点是公开的(列出不需要认证),但推理需要有效的 API key。

Streaming (流式传输) 和工具支持

功能支持
Streaming✅ 所有模型
Function calling✅ 大多数模型(在 API 中检查 supportsFunctionCalling)
Vision/Images✅ 标记为"Vision"功能的模型
JSON mode✅ 通过 response_format 支持

定价

Venice 使用基于积分的系统。查看 venice.ai/pricing 了解当前费率:

  • Private 模型: 通常成本较低
  • Anonymized 模型: 与直接 API 定价类似 + 小额 Venice 费用

对比: Venice vs 直接 API

方面Venice (Anonymized)直接 API
隐私元数据剥离,匿名化你的账户关联
延迟+10-50ms (代理)直连
功能大多数功能支持完整功能
计费Venice 积分Provider 计费

使用示例

# 使用默认私密模型
openclaw chat --model venice/llama-3.3-70b

# 通过 Venice 使用 Claude (匿名化)
openclaw chat --model venice/claude-opus-45

# 使用未经审查模型
openclaw chat --model venice/venice-uncensored

# 使用视觉模型处理图像
openclaw chat --model venice/qwen3-vl-235b-a22b

# 使用编码模型
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct

故障排除

API key 未识别

echo $VENICE_API_KEY
openclaw models list | grep venice

确保 key 以 vapi_ 开头。

模型不可用

Venice 模型目录动态更新。运行 openclaw models list 查看当前可用的模型。某些模型可能暂时离线。

连接问题

Venice API 地址是 https://api.venice.ai/api/v1。确保你的网络允许 HTTPS 连接。

配置文件示例

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "llama-3.3-70b",
            name: "Llama 3.3 70B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 131072,
            maxTokens: 8192
          }
        ]
      }
    }
  }
}

链接