Venice AI(Venice ハイライト)

Venice は、プロプライエタリモデルへの匿名化アクセスのオプション付きで、プライバシー優先の推論を実現する推奨の Venice セットアップです。

Venice AI は、検閲なしモデルのサポートと匿名化プロキシを介した主要なプロプライエタリモデルへのアクセスを備えた、プライバシー重視の AI 推論を提供します。すべての推論はデフォルトでプライベートです。データのトレーニングやログ記録は行われません。

OpenClaw で Venice を使う理由

  • オープンソースモデル用のプライベート推論(ログ記録なし)。
  • 必要な場合の検閲なしモデル
  • 品質が重要な場合のプロプライエタリモデル(Opus/GPT/Gemini)への匿名化アクセス
  • OpenAI 互換 /v1 エンドポイント。

プライバシーモード

Venice は 2 つのプライバシーレベルを提供します。モデルを選択する際にこれを理解することが重要です:

モード説明モデル
Private完全にプライベート。プロンプト/レスポンスは決して保存またはログ記録されません。一時的。Llama、Qwen、DeepSeek、Venice Uncensored など
Anonymizedメタデータが削除された状態で Venice 経由でプロキシされます。基盤となるプロバイダ(OpenAI、Anthropic)は匿名化されたリクエストを受け取ります。Claude、GPT、Gemini、Grok、Kimi、MiniMax

機能

  • プライバシー重視: 「private」(完全にプライベート)と「anonymized」(プロキシ経由)モードを選択可能
  • 検閲なしモデル: コンテンツ制限のないモデルへのアクセス
  • 主要モデルアクセス: Venice の匿名化プロキシ経由で Claude、GPT-5.2、Gemini、Grok を使用
  • OpenAI 互換 API: 簡単な統合のための標準 /v1 エンドポイント
  • ストリーミング: ✅ すべてのモデルでサポート
  • 関数呼び出し: ✅ 一部のモデルでサポート(モデル機能を確認)
  • ビジョン: ✅ ビジョン機能を持つモデルでサポート
  • 厳しいレート制限なし: 極端な使用には公正使用スロットリングが適用される場合があります

セットアップ

1. API キーを取得

  1. venice.ai でサインアップ
  2. Settings → API Keys → Create new key に移動
  3. API キーをコピー(形式: vapi_xxxxxxxxxxxx

2. OpenClaw を設定

オプション A: 環境変数

export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

オプション B: 対話型セットアップ(推奨)

openclaw onboard --auth-choice venice-api-key

これにより:

  1. API キーの入力を求められます(または既存の VENICE_API_KEY を使用)
  2. 利用可能なすべての Venice モデルが表示されます
  3. デフォルトモデルを選択できます
  4. プロバイダが自動的に設定されます

オプション C: 非対話的

openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. セットアップを確認

openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"

モデル選択

セットアップ後、OpenClaw は利用可能なすべての Venice モデルを表示します。ニーズに基づいて選択してください:

  • デフォルト(推奨): プライベートでバランスの取れたパフォーマンスのために venice/llama-3.3-70b
  • 総合ベスト品質: 難しいジョブには venice/claude-opus-45(Opus は依然として最強)。
  • プライバシー: 完全にプライベートな推論には「private」モデルを選択。
  • 機能: Venice のプロキシ経由で Claude、GPT、Gemini にアクセスするには「anonymized」モデルを選択。

いつでもデフォルトモデルを変更できます:

openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b

利用可能なすべてのモデルをリスト:

openclaw models list | grep venice

openclaw configure で設定

  1. openclaw configure を実行
  2. Model/auth を選択
  3. Venice AI を選択

どのモデルを使うべきか?

ユースケース推奨モデル理由
一般的なチャットllama-3.3-70b万能で完全にプライベート
総合ベスト品質claude-opus-45難しいタスクには Opus が依然として最強
プライバシー + Claude 品質claude-opus-45匿名化プロキシ経由の最高の推論
コーディングqwen3-coder-480b-a35b-instructコード最適化、262k コンテキスト
ビジョンタスクqwen3-vl-235b-a22b最高のプライベートビジョンモデル
検閲なしvenice-uncensoredコンテンツ制限なし
高速 + 安価qwen3-4b軽量で能力あり
複雑な推論deepseek-v3.2強力な推論、プライベート

利用可能なモデル(合計25)

Private モデル(15)— 完全にプライベート、ログ記録なし

モデル ID名前コンテキスト(トークン)機能
llama-3.3-70bLlama 3.3 70B131k一般
llama-3.2-3bLlama 3.2 3B131k高速、軽量
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B131k複雑なタスク
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking131k推論
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct131k一般
qwen3-coder-480b-a35b-instructQwen3 Coder 480B262kコード
qwen3-next-80bQwen3 Next 80B262k一般
qwen3-vl-235b-a22bQwen3 VL 235B262kビジョン
qwen3-4bVenice Small (Qwen3 4B)32k高速、推論
deepseek-v3.2DeepSeek V3.2163k推論
venice-uncensoredVenice Uncensored32k検閲なし
mistral-31-24bVenice Medium (Mistral)131kビジョン
google-gemma-3-27b-itGemma 3 27B Instruct202kビジョン
openai-gpt-oss-120bOpenAI GPT OSS 120B131k一般
zai-org-glm-4.7GLM 4.7202k推論、多言語

Anonymized モデル(10)— Venice プロキシ経由

モデル IDオリジナルコンテキスト(トークン)機能
claude-opus-45Claude Opus 4.5202k推論、ビジョン
claude-sonnet-45Claude Sonnet 4.5202k推論、ビジョン
openai-gpt-52GPT-5.2262k推論
openai-gpt-52-codexGPT-5.2 Codex262k推論、ビジョン
gemini-3-pro-previewGemini 3 Pro202k推論、ビジョン
gemini-3-flash-previewGemini 3 Flash262k推論、ビジョン
grok-41-fastGrok 4.1 Fast262k推論、ビジョン
grok-code-fast-1Grok Code Fast 1262k推論、コード
kimi-k2-thinkingKimi K2 Thinking262k推論
minimax-m21MiniMax M2.1202k推論

モデル検出

VENICE_API_KEY が設定されている場合、OpenClaw は Venice API からモデルを自動的に検出します。API に到達できない場合は、静的カタログにフォールバックします。

/models エンドポイントは公開されています(リスト表示に認証不要)が、推論には有効な API キーが必要です。

ストリーミングとツールサポート

機能サポート
ストリーミング✅ すべてのモデル
関数呼び出し✅ ほとんどのモデル(API の supportsFunctionCalling を確認)
ビジョン/画像✅ 「Vision」機能でマークされたモデル
JSON モードresponse_format 経由でサポート

価格

Venice はクレジットベースのシステムを使用しています。現在のレートについては venice.ai/pricing を確認してください:

  • Private モデル: 一般的に低コスト
  • Anonymized モデル: 直接 API 価格に類似 + 小額の Venice 手数料

比較: Venice vs 直接 API

側面Venice(Anonymized)直接 API
プライバシーメタデータ削除、匿名化アカウントとリンク
レイテンシ+10-50ms(プロキシ)直接
機能ほとんどの機能をサポート完全な機能
請求Venice クレジットプロバイダ請求

使用例

# デフォルトのプライベートモデルを使用
openclaw chat --model venice/llama-3.3-70b

# Venice 経由で Claude を使用(匿名化)
openclaw chat --model venice/claude-opus-45

# 検閲なしモデルを使用
openclaw chat --model venice/venice-uncensored

# 画像付きビジョンモデルを使用
openclaw chat --model venice/qwen3-vl-235b-a22b

# コーディングモデルを使用
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct

トラブルシューティング

API キーが認識されない

echo $VENICE_API_KEY
openclaw models list | grep venice

キーが vapi_ で始まることを確認してください。

モデルが利用できない

Venice モデルカタログは動的に更新されます。現在利用可能なモデルを確認するには openclaw models list を実行してください。一部のモデルは一時的にオフラインになる場合があります。

接続の問題

Venice API は https://api.venice.ai/api/v1 にあります。ネットワークが HTTPS 接続を許可していることを確認してください。

設定ファイル例

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "llama-3.3-70b",
            name: "Llama 3.3 70B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 131072,
            maxTokens: 8192
          }
        ]
      }
    }
  }
}

リンク