Venice AI
Venice AI (Venice 重点推荐)
Section titled “Venice AI (Venice 重点推荐)”Venice 是我们重点推荐的 Venice 设置,用于隐私优先的推理,并提供可选的专有模型匿名访问。
Venice AI 提供隐私专注的 AI 推理,支持未经审查的模型,并通过其匿名代理访问主要的专有模型。默认情况下,所有推理都是私密的——不使用您的数据进行训练,也不记录日志。
为什么在 OpenClaw 中使用 Venice
Section titled “为什么在 OpenClaw 中使用 Venice”- 私密推理:针对开源模型(无日志)。
- 未经审查的模型:在需要时使用。
- 匿名访问:当质量很重要时,访问专有模型(Opus/GPT/Gemini)。
- OpenAI 兼容的
/v1端点。
Venice 提供两个隐私级别——理解这一点是选择模型的关键:
| 模式 | 描述 | 模型 |
|---|---|---|
| Private | 完全私密。提示/响应 从未存储或记录。短暂的。 | Llama, Qwen, DeepSeek, Venice Uncensored 等。 |
| Anonymized | 通过 Venice 代理,剥离元数据。底层提供商 (OpenAI, Anthropic) 看到的是匿名请求。 | Claude, GPT, Gemini, Grok, Kimi, MiniMax |
- 隐私专注:在“Private”(完全私密)和“Anonymized”(代理)模式之间选择
- 未经审查的模型:访问无内容限制的模型
- 主要模型访问:通过 Venice 的匿名代理使用 Claude, GPT-5.2, Gemini, Grok
- OpenAI 兼容 API:标准的
/v1端点,易于集成 - 流式传输:✅ 所有模型均支持
- 函数调用:✅ 选定模型支持(检查模型功能)
- 视觉:✅ 具有视觉功能的模型支持
- 无硬性速率限制:极端使用可能会受到公平使用限制
1. 获取 API 密钥
Section titled “1. 获取 API 密钥”- 在 venice.ai 注册
- 转到 Settings → API Keys → Create new key
- 复制您的 API 密钥(格式:
vapi_xxxxxxxxxxxx)
2. 配置 OpenClaw
Section titled “2. 配置 OpenClaw”选项 A:环境变量
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"选项 B:交互式设置(推荐)
openclaw onboard --auth-choice venice-api-key这将会:
- 提示您输入 API 密钥(或使用现有的
VENICE_API_KEY) - 显示所有可用的 Venice 模型
- 让您选择默认模型
- 自动配置提供商
选项 C:非交互式
openclaw onboard --non-interactive \ --auth-choice venice-api-key \ --venice-api-key "vapi_xxxxxxxxxxxx"3. 验证设置
Section titled “3. 验证设置”openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"设置完成后,OpenClaw 会显示所有可用的 Venice 模型。根据您的需求选择:
- 默认(我们的选择):
venice/llama-3.3-70b用于私密、平衡的性能。 - 最佳整体质量:
venice/claude-opus-45用于艰巨的任务(Opus 仍然是最强的)。 - 隐私:选择“Private”模型进行完全私密的推理。
- 能力:选择“Anonymized”模型以通过 Venice 的代理访问 Claude, GPT, Gemini。
随时更改您的默认模型:
openclaw models set venice/claude-opus-45openclaw models set venice/llama-3.3-70b列出所有可用模型:
openclaw models list | grep venice通过 openclaw configure 配置
Section titled “通过 openclaw configure 配置”- 运行
openclaw configure - 选择 Model/auth
- 选择 Venice AI
我应该使用哪个模型?
Section titled “我应该使用哪个模型?”| 用例 | 推荐模型 | 原因 |
|---|---|---|
| 一般聊天 | llama-3.3-70b | 全面良好,完全私密 |
| 最佳整体质量 | claude-opus-45 | Opus 对于艰巨任务仍然最强 |
| 隐私 + Claude 质量 | claude-opus-45 | 通过匿名代理的最佳推理 |
| 编码 | qwen3-coder-480b-a35b-instruct | 代码优化,262k 上下文 |
| 视觉任务 | qwen3-vl-235b-a22b | 最佳私密视觉模型 |
| 未经审查 | venice-uncensored | 无内容限制 |
| 快速 + 便宜 | qwen3-4b | 轻量级,依然能干 |
| 复杂推理 | deepseek-v3.2 | 强大的推理,私密 |
可用模型 (总计 25 个)
Section titled “可用模型 (总计 25 个)”私密模型 (15) — 完全私密,无日志
Section titled “私密模型 (15) — 完全私密,无日志”| 模型 ID | 名称 | 上下文 (tokens) | 特性 |
|---|---|---|---|
llama-3.3-70b | Llama 3.3 70B | 131k | 通用 |
llama-3.2-3b | Llama 3.2 3B | 131k | 快速,轻量级 |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 131k | 复杂任务 |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 131k | 推理 |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 131k | 通用 |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 262k | 代码 |
qwen3-next-80b | Qwen3 Next 80B | 262k | 通用 |
qwen3-vl-235b-a22b | Qwen3 VL 235B | 262k | 视觉 |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | 快速,推理 |
deepseek-v3.2 | DeepSeek V3.2 | 163k | 推理 |
venice-uncensored | Venice Uncensored | 32k | 未经审查 |
mistral-31-24b | Venice Medium (Mistral) | 131k | 视觉 |
google-gemma-3-27b-it | Gemma 3 27B Instruct | 202k | 视觉 |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 131k | 通用 |
zai-org-glm-4.7 | GLM 4.7 | 202k | 推理,多语言 |
匿名模型 (10) — 通过 Venice 代理
Section titled “匿名模型 (10) — 通过 Venice 代理”| 模型 ID | 原始模型 | 上下文 (tokens) | 特性 |
|---|---|---|---|
claude-opus-45 | Claude Opus 4.5 | 202k | 推理,视觉 |
claude-sonnet-45 | Claude Sonnet 4.5 | 202k | 推理,视觉 |
openai-gpt-52 | GPT-5.2 | 262k | 推理 |
openai-gpt-52-codex | GPT-5.2 Codex | 262k | 推理,视觉 |
gemini-3-pro-preview | Gemini 3 Pro | 202k | 推理,视觉 |
gemini-3-flash-preview | Gemini 3 Flash | 262k | 推理,视觉 |
grok-41-fast | Grok 4.1 Fast | 262k | 推理,视觉 |
grok-code-fast-1 | Grok Code Fast 1 | 262k | 推理,代码 |
kimi-k2-thinking | Kimi K2 Thinking | 262k | 推理 |
minimax-m21 | MiniMax M2.1 | 202k | 推理 |
当设置了 VENICE_API_KEY 时,OpenClaw 会自动从 Venice API 发现模型。如果 API 不可达,它将回退到静态目录。
/models 端点是公开的(列出不需要身份验证),但推理需要有效的 API 密钥。
流式传输与工具支持
Section titled “流式传输与工具支持”| 特性 | 支持 |
|---|---|
| 流式传输 | ✅ 所有模型 |
| 函数调用 | ✅ 大多数模型(检查 API 中的 supportsFunctionCalling) |
| 视觉/图像 | ✅ 标记为“Vision”特性的模型 |
| JSON 模式 | ✅ 通过 response_format 支持 |
Venice 使用基于信用的系统。查看 venice.ai/pricing 获取当前费率:
- 私密模型:通常成本较低
- 匿名模型:类似于直接 API 定价 + 少量 Venice 费用
比较:Venice vs 直接 API
Section titled “比较:Venice vs 直接 API”| 方面 | Venice (匿名) | 直接 API |
|---|---|---|
| 隐私 | 元数据剥离,匿名化 | 您的账户关联 |
| 延迟 | +10-50ms (代理) | 直接 |
| 功能 | 支持大多数功能 | 完整功能 |
| 计费 | Venice 信用 | 提供商计费 |
# 使用默认私密模型openclaw chat --model venice/llama-3.3-70b
# 通过 Venice 使用 Claude (匿名)openclaw chat --model venice/claude-opus-45
# 使用未经审查的模型openclaw chat --model venice/venice-uncensored
# 使用带图像的视觉模型openclaw chat --model venice/qwen3-vl-235b-a22b
# 使用编码模型openclaw chat --model venice/qwen3-coder-480b-a35b-instructAPI 密钥未识别
Section titled “API 密钥未识别”echo $VENICE_API_KEYopenclaw models list | grep venice确保密钥以 vapi_ 开头。
Venice 模型目录动态更新。运行 openclaw models list 查看当前可用模型。某些模型可能暂时离线。
Venice API 位于 https://api.venice.ai/api/v1。确保您的网络允许 HTTPS 连接。
配置文件示例
Section titled “配置文件示例”{ env: { VENICE_API_KEY: "vapi_..." }, agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } }, models: { mode: "merge", providers: { venice: { baseUrl: "https://api.venice.ai/api/v1", apiKey: "${VENICE_API_KEY}", api: "openai-completions", models: [ { id: "llama-3.3-70b", name: "Llama 3.3 70B", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 131072, maxTokens: 8192, }, ], }, }, },}