Venice AI (Venice 하이라이트)
Venice는 선택적으로 독점 모델에 익명 접근할 수 있는 프라이버시 우선 추론을 위한 Venice 설정입니다.
Venice AI는 검열되지 않은 모델 지원과 익명화된 프록시를 통한 주요 독점 모델 접근을 제공하는 프라이버시 중심 AI 추론을 제공합니다. 모든 추론은 기본적으로 비공개입니다—데이터에 대한 학습 없음, 로깅 없음.
OpenClaw에서 Venice를 사용하는 이유
- 오픈소스 모델을 위한 비공개 추론 (로깅 없음).
- 필요할 때 검열되지 않은 모델.
- 품질이 중요할 때 독점 모델(Opus/GPT/Gemini)에 대한 익명 접근.
- OpenAI 호환 /v1 엔드포인트.
프라이버시 모드
Venice는 두 가지 프라이버시 수준을 제공합니다—모델을 선택하는 데 핵심입니다:
| 모드 | 설명 | 모델 |
|---|---|---|
| Private | 완전히 비공개. 프롬프트/응답이 절대 저장되거나 로깅되지 않음. 임시. | Llama, Qwen, DeepSeek, Venice Uncensored 등 |
| Anonymized | 메타데이터가 제거된 채 Venice를 통해 프록시됨. 기본 제공자(OpenAI, Anthropic)는 익명화된 요청을 봅니다. | Claude, GPT, Gemini, Grok, Kimi, MiniMax |
기능
- 프라이버시 중심: "private"(완전히 비공개) 및 "anonymized"(프록시) 모드 중 선택
- 검열되지 않은 모델: 콘텐츠 제한 없는 모델 접근
- 주요 모델 접근: Venice의 익명화된 프록시를 통해 Claude, GPT-5.2, Gemini, Grok 사용
- OpenAI 호환 API: 간편한 통합을 위한 표준 /v1 엔드포인트
- 스트리밍: ✅ 모든 모델에서 지원
- 함수 호출: ✅ 선택된 모델에서 지원(모델 기능 확인)
- 비전: ✅ 비전 기능이 있는 모델에서 지원
- 하드 속도 제한 없음: 극단적 사용 시 공정 사용 제한이 적용될 수 있음
설정
1. API 키 받기
- venice.ai에서 가입
- Settings → API Keys → Create new key로 이동
- API 키 복사 (형식: vapi_xxxxxxxxxxxx)
2. OpenClaw 설정
옵션 A: 환경 변수
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
옵션 B: 대화형 설정 (권장)
openclaw onboard --auth-choice venice-api-key
이것은 다음을 수행합니다:
- API 키 프롬프트(또는 기존 VENICE_API_KEY 사용)
- 사용 가능한 모든 Venice 모델 표시
- 기본 모델 선택
- provider 자동 설정
옵션 C: 비대화형
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. 설정 확인
openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"
모델 선택
설정 후 OpenClaw는 사용 가능한 모든 Venice 모델을 표시합니다. 필요에 따라 선택하세요:
- 기본 (우리의 선택): 비공개 균형 성능을 위한 venice/llama-3.3-70b.
- 최고 전체 품질: 어려운 작업을 위한 venice/claude-opus-45 (Opus가 여전히 가장 강력함).
- 프라이버시: 완전히 비공개 추론을 위해 "private" 모델 선택.
- 기능: Venice 프록시를 통해 Claude, GPT, Gemini에 접근하려면 "anonymized" 모델 선택.
언제든지 기본 모델 변경:
openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b
사용 가능한 모든 모델 나열:
openclaw models list | grep venice
openclaw configure를 통한 설정
- openclaw configure 실행
- Model/auth 선택
- Venice AI 선택
어떤 모델을 사용해야 할까요?
| 사용 사례 | 권장 모델 | 이유 |
|---|---|---|
| 일반 채팅 | llama-3.3-70b | 좋은 범용, 완전히 비공개 |
| 최고 전체 품질 | claude-opus-45 | Opus가 어려운 작업에 여전히 가장 강력함 |
| 프라이버시 + Claude 품질 | claude-opus-45 | 익명화된 프록시를 통한 최고의 reasoning |
| 코딩 | qwen3-coder-480b-a35b-instruct | 코드 최적화, 262k 컨텍스트 |
| 비전 작업 | qwen3-vl-235b-a22b | 최고의 비공개 비전 모델 |
| 검열되지 않음 | venice-uncensored | 콘텐츠 제한 없음 |
| 빠르고 저렴함 | qwen3-4b | 경량, 여전히 유능함 |
| 복잡한 reasoning | deepseek-v3.2 | 강력한 reasoning, 비공개 |
사용 가능한 모델 (총 25개)
Private 모델 (15) — 완전히 비공개, 로깅 없음
| Model ID | Name | Context (tokens) | Features |
|---|---|---|---|
| llama-3.3-70b | Llama 3.3 70B | 131k | General |
| llama-3.2-3b | Llama 3.2 3B | 131k | Fast, lightweight |
| hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 131k | Complex tasks |
| qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 131k | Reasoning |
| qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 131k | General |
| qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 262k | Code |
| qwen3-next-80b | Qwen3 Next 80B | 262k | General |
| qwen3-vl-235b-a22b | Qwen3 VL 235B | 262k | Vision |
| qwen3-4b | Venice Small (Qwen3 4B) | 32k | Fast, reasoning |
| deepseek-v3.2 | DeepSeek V3.2 | 163k | Reasoning |
| venice-uncensored | Venice Uncensored | 32k | Uncensored |
| mistral-31-24b | Venice Medium (Mistral) | 131k | Vision |
| google-gemma-3-27b-it | Gemma 3 27B Instruct | 202k | Vision |
| openai-gpt-oss-120b | OpenAI GPT OSS 120B | 131k | General |
| zai-org-glm-4.7 | GLM 4.7 | 202k | Reasoning, multilingual |
Anonymized 모델 (10) — Venice 프록시를 통해
| Model ID | Original | Context (tokens) | Features |
|---|---|---|---|
| claude-opus-45 | Claude Opus 4.5 | 202k | Reasoning, vision |
| claude-sonnet-45 | Claude Sonnet 4.5 | 202k | Reasoning, vision |
| openai-gpt-52 | GPT-5.2 | 262k | Reasoning |
| openai-gpt-52-codex | GPT-5.2 Codex | 262k | Reasoning, vision |
| gemini-3-pro-preview | Gemini 3 Pro | 202k | Reasoning, vision |
| gemini-3-flash-preview | Gemini 3 Flash | 262k | Reasoning, vision |
| grok-41-fast | Grok 4.1 Fast | 262k | Reasoning, vision |
| grok-code-fast-1 | Grok Code Fast 1 | 262k | Reasoning, code |
| kimi-k2-thinking | Kimi K2 Thinking | 262k | Reasoning |
| minimax-m21 | MiniMax M2.1 | 202k | Reasoning |
모델 검색
VENICE_API_KEY가 설정되면 OpenClaw는 Venice API에서 모델을 자동으로 검색합니다. API에 접근할 수 없으면 정적 카탈로그로 폴백합니다.
/models 엔드포인트는 공개입니다(목록을 위한 인증 불필요), 하지만 추론에는 유효한 API 키가 필요합니다.
스트리밍 & 도구 지원
| 기능 | 지원 |
|---|---|
| 스트리밍 | ✅ 모든 모델 |
| 함수 호출 | ✅ 대부분의 모델 (API에서 supportsFunctionCalling 확인) |
| 비전/이미지 | ✅ "Vision" 기능이 표시된 모델 |
| JSON 모드 | ✅ response_format을 통해 지원 |
가격
Venice는 크레딧 기반 시스템을 사용합니다. 현재 요금은 venice.ai/pricing을 확인하세요:
- Private 모델: 일반적으로 낮은 비용
- Anonymized 모델: 직접 API 가격 + 소액의 Venice 수수료와 유사
비교: Venice vs 직접 API
| 측면 | Venice (Anonymized) | Direct API |
|---|---|---|
| 프라이버시 | 메타데이터 제거됨, 익명화됨 | 계정 연결됨 |
| 지연 | +10-50ms (프록시) | 직접 |
| 기능 | 대부분의 기능 지원 | 전체 기능 |
| 청구 | Venice 크레딧 | Provider 청구 |
사용 예시
# 기본 private 모델 사용
openclaw chat --model venice/llama-3.3-70b
# Venice를 통해 Claude 사용 (anonymized)
openclaw chat --model venice/claude-opus-45
# 검열되지 않은 모델 사용
openclaw chat --model venice/venice-uncensored
# 이미지와 함께 비전 모델 사용
openclaw chat --model venice/qwen3-vl-235b-a22b
# 코딩 모델 사용
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct
문제 해결
API 키가 인식되지 않음
echo $VENICE_API_KEY
openclaw models list | grep venice
키가 vapi_로 시작하는지 확인하세요.
모델을 사용할 수 없음
Venice 모델 카탈로그는 동적으로 업데이트됩니다. 현재 사용 가능한 모델을 보려면 openclaw models list를 실행하세요. 일부 모델은 일시적으로 오프라인일 수 있습니다.
연결 문제
Venice API는 https://api.venice.ai/api/v1에 있습니다. 네트워크가 HTTPS 연결을 허용하는지 확인하세요.
Config 파일 예시
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "llama-3.3-70b",
name: "Llama 3.3 70B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 131072,
maxTokens: 8192
}
]
}
}
}
}