模型提供商
OpenClaw 可以使用许多 LLM 提供商。选择一个提供商,进行身份验证,然后将默认模型设置为 provider/model。
正在寻找聊天频道文档(WhatsApp/Telegram/Discord/Slack/Mattermost (插件)/等)?请参阅 频道。
重点推荐:Venice (Venice AI)
Section titled “重点推荐:Venice (Venice AI)”Venice 是我们推荐的 Venice AI 设置,用于隐私优先的推理,并可选择使用 Opus 处理困难任务。
- 默认:
venice/llama-3.3-70b - 最佳整体:
venice/claude-opus-45(Opus 仍然是最强的)
请参阅 Venice AI。
- 向提供商进行身份验证(通常通过
openclaw onboard)。 - 设置默认模型:
{ agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },}- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, 隐私优先)
- Ollama (本地模型)
- Claude Max API Proxy - 使用 Claude Max/Pro 订阅作为 OpenAI 兼容的 API 端点
有关完整的提供商目录(xAI、Groq、Mistral 等)和高级配置, 请参阅 模型提供商。