Venice AI(Venice ハイライト)
Venice は、プロプライエタリモデルへの匿名化アクセスのオプション付きで、プライバシー優先の推論を実現する推奨の Venice セットアップです。
Venice AI は、検閲なしモデルのサポートと匿名化プロキシを介した主要なプロプライエタリモデルへのアクセスを備えた、プライバシー重視の AI 推論を提供します。すべての推論はデフォルトでプライベートです。データのトレーニングやログ記録は行われません。
OpenClaw で Venice を使う理由
- オープンソースモデル用のプライベート推論(ログ記録なし)。
- 必要な場合の検閲なしモデル。
- 品質が重要な場合のプロプライエタリモデル(Opus/GPT/Gemini)への匿名化アクセス。
- OpenAI 互換 /v1 エンドポイント。
プライバシーモード
Venice は 2 つのプライバシーレベルを提供します。モデルを選択する際にこれを理解することが重要です:
| モード | 説明 | モデル |
|---|---|---|
| Private | 完全にプライベート。プロンプト/レスポンスは決して保存またはログ記録されません。一時的。 | Llama、Qwen、DeepSeek、Venice Uncensored など |
| Anonymized | メタデータが削除された状態で Venice 経由でプロキシされます。基盤となるプロバイダ(OpenAI、Anthropic)は匿名化されたリクエストを受け取ります。 | Claude、GPT、Gemini、Grok、Kimi、MiniMax |
機能
- プライバシー重視: 「private」(完全にプライベート)と「anonymized」(プロキシ経由)モードを選択可能
- 検閲なしモデル: コンテンツ制限のないモデルへのアクセス
- 主要モデルアクセス: Venice の匿名化プロキシ経由で Claude、GPT-5.2、Gemini、Grok を使用
- OpenAI 互換 API: 簡単な統合のための標準 /v1 エンドポイント
- ストリーミング: ✅ すべてのモデルでサポート
- 関数呼び出し: ✅ 一部のモデルでサポート(モデル機能を確認)
- ビジョン: ✅ ビジョン機能を持つモデルでサポート
- 厳しいレート制限なし: 極端な使用には公正使用スロットリングが適用される場合があります
セットアップ
1. API キーを取得
- venice.ai でサインアップ
- Settings → API Keys → Create new key に移動
- API キーをコピー(形式: vapi_xxxxxxxxxxxx)
2. OpenClaw を設定
オプション A: 環境変数
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
オプション B: 対話型セットアップ(推奨)
openclaw onboard --auth-choice venice-api-key
これにより:
- API キーの入力を求められます(または既存の VENICE_API_KEY を使用)
- 利用可能なすべての Venice モデルが表示されます
- デフォルトモデルを選択できます
- プロバイダが自動的に設定されます
オプション C: 非対話的
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. セットアップを確認
openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"
モデル選択
セットアップ後、OpenClaw は利用可能なすべての Venice モデルを表示します。ニーズに基づいて選択してください:
- デフォルト(推奨): プライベートでバランスの取れたパフォーマンスのために venice/llama-3.3-70b。
- 総合ベスト品質: 難しいジョブには venice/claude-opus-45(Opus は依然として最強)。
- プライバシー: 完全にプライベートな推論には「private」モデルを選択。
- 機能: Venice のプロキシ経由で Claude、GPT、Gemini にアクセスするには「anonymized」モデルを選択。
いつでもデフォルトモデルを変更できます:
openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b
利用可能なすべてのモデルをリスト:
openclaw models list | grep venice
openclaw configure で設定
- openclaw configure を実行
- Model/auth を選択
- Venice AI を選択
どのモデルを使うべきか?
| ユースケース | 推奨モデル | 理由 |
|---|---|---|
| 一般的なチャット | llama-3.3-70b | 万能で完全にプライベート |
| 総合ベスト品質 | claude-opus-45 | 難しいタスクには Opus が依然として最強 |
| プライバシー + Claude 品質 | claude-opus-45 | 匿名化プロキシ経由の最高の推論 |
| コーディング | qwen3-coder-480b-a35b-instruct | コード最適化、262k コンテキスト |
| ビジョンタスク | qwen3-vl-235b-a22b | 最高のプライベートビジョンモデル |
| 検閲なし | venice-uncensored | コンテンツ制限なし |
| 高速 + 安価 | qwen3-4b | 軽量で能力あり |
| 複雑な推論 | deepseek-v3.2 | 強力な推論、プライベート |
利用可能なモデル(合計25)
Private モデル(15)— 完全にプライベート、ログ記録なし
| モデル ID | 名前 | コンテキスト(トークン) | 機能 |
|---|---|---|---|
| llama-3.3-70b | Llama 3.3 70B | 131k | 一般 |
| llama-3.2-3b | Llama 3.2 3B | 131k | 高速、軽量 |
| hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 131k | 複雑なタスク |
| qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 131k | 推論 |
| qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 131k | 一般 |
| qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 262k | コード |
| qwen3-next-80b | Qwen3 Next 80B | 262k | 一般 |
| qwen3-vl-235b-a22b | Qwen3 VL 235B | 262k | ビジョン |
| qwen3-4b | Venice Small (Qwen3 4B) | 32k | 高速、推論 |
| deepseek-v3.2 | DeepSeek V3.2 | 163k | 推論 |
| venice-uncensored | Venice Uncensored | 32k | 検閲なし |
| mistral-31-24b | Venice Medium (Mistral) | 131k | ビジョン |
| google-gemma-3-27b-it | Gemma 3 27B Instruct | 202k | ビジョン |
| openai-gpt-oss-120b | OpenAI GPT OSS 120B | 131k | 一般 |
| zai-org-glm-4.7 | GLM 4.7 | 202k | 推論、多言語 |
Anonymized モデル(10)— Venice プロキシ経由
| モデル ID | オリジナル | コンテキスト(トークン) | 機能 |
|---|---|---|---|
| claude-opus-45 | Claude Opus 4.5 | 202k | 推論、ビジョン |
| claude-sonnet-45 | Claude Sonnet 4.5 | 202k | 推論、ビジョン |
| openai-gpt-52 | GPT-5.2 | 262k | 推論 |
| openai-gpt-52-codex | GPT-5.2 Codex | 262k | 推論、ビジョン |
| gemini-3-pro-preview | Gemini 3 Pro | 202k | 推論、ビジョン |
| gemini-3-flash-preview | Gemini 3 Flash | 262k | 推論、ビジョン |
| grok-41-fast | Grok 4.1 Fast | 262k | 推論、ビジョン |
| grok-code-fast-1 | Grok Code Fast 1 | 262k | 推論、コード |
| kimi-k2-thinking | Kimi K2 Thinking | 262k | 推論 |
| minimax-m21 | MiniMax M2.1 | 202k | 推論 |
モデル検出
VENICE_API_KEY が設定されている場合、OpenClaw は Venice API からモデルを自動的に検出します。API に到達できない場合は、静的カタログにフォールバックします。
/models エンドポイントは公開されています(リスト表示に認証不要)が、推論には有効な API キーが必要です。
ストリーミングとツールサポート
| 機能 | サポート |
|---|---|
| ストリーミング | ✅ すべてのモデル |
| 関数呼び出し | ✅ ほとんどのモデル(API の supportsFunctionCalling を確認) |
| ビジョン/画像 | ✅ 「Vision」機能でマークされたモデル |
| JSON モード | ✅ response_format 経由でサポート |
価格
Venice はクレジットベースのシステムを使用しています。現在のレートについては venice.ai/pricing を確認してください:
- Private モデル: 一般的に低コスト
- Anonymized モデル: 直接 API 価格に類似 + 小額の Venice 手数料
比較: Venice vs 直接 API
| 側面 | Venice(Anonymized) | 直接 API |
|---|---|---|
| プライバシー | メタデータ削除、匿名化 | アカウントとリンク |
| レイテンシ | +10-50ms(プロキシ) | 直接 |
| 機能 | ほとんどの機能をサポート | 完全な機能 |
| 請求 | Venice クレジット | プロバイダ請求 |
使用例
# デフォルトのプライベートモデルを使用
openclaw chat --model venice/llama-3.3-70b
# Venice 経由で Claude を使用(匿名化)
openclaw chat --model venice/claude-opus-45
# 検閲なしモデルを使用
openclaw chat --model venice/venice-uncensored
# 画像付きビジョンモデルを使用
openclaw chat --model venice/qwen3-vl-235b-a22b
# コーディングモデルを使用
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct
トラブルシューティング
API キーが認識されない
echo $VENICE_API_KEY
openclaw models list | grep venice
キーが vapi_ で始まることを確認してください。
モデルが利用できない
Venice モデルカタログは動的に更新されます。現在利用可能なモデルを確認するには openclaw models list を実行してください。一部のモデルは一時的にオフラインになる場合があります。
接続の問題
Venice API は https://api.venice.ai/api/v1 にあります。ネットワークが HTTPS 接続を許可していることを確認してください。
設定ファイル例
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "llama-3.3-70b",
name: "Llama 3.3 70B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 131072,
maxTokens: 8192
}
]
}
}
}
}