模型提供商
OpenClaw 可以使用许多 LLM 提供商。选择一个提供商,进行身份验证,然后将默认模型设置为provider/model。
正在寻找聊天渠道文档(WhatsApp/Telegram/Discord/Slack/Mattermost (插件)/etc.)?请参阅 渠道。
快速开始
- 与提供商进行身份验证(通常通过
openclaw onboard)。 - 设置默认模型:
提供商文档
- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway(网关)
- DeepSeek
- GitHub Copilot
- GLM 模型
- Google (Gemini)
- Groq (LPU 推理)
- Hugging Face (推理)
- Kilocode
- LiteLLM (统一网关)
- MiniMax
- Mistral
- Model Studio (阿里云)
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (云端 + 本地模型)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (网络搜索)
- Qianfan
- Qwen (OAuth)
- SGLang (本地模型)
- Synthetic
- Together AI
- Venice (Venice AI, 注重隐私)
- Vercel AI Gateway(网关)
- vLLM (本地模型)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
转录提供商
社区工具
- Claude Max API Proxy - Claude 订阅凭证的社区代理(使用前请验证 Anthropic 政策/条款)
本页面源自 openclaw/openclaw,由 BeaversLab 翻译,遵循 MIT 协议 发布。