OpenAI Chat Completions (HTTP)
OpenClaw 的 Gateway 网关 可以提供一个小型的兼容 OpenAI 的 Chat Completions 端点。 该端点默认处于禁用状态。请先在配置中启用它。POST /v1/chat/completions- 与 Gateway(网关) 相同的端口(WS + HTTP 多路复用):
http://<gateway-host>:<port>/v1/chat/completions
GET /v1/modelsGET /v1/models/{id}POST /v1/embeddingsPOST /v1/responses
openclaw agent 代码路径相同),因此路由/权限/配置与您的 Gateway(网关) 匹配。
身份验证
使用 Gateway(网关) 身份验证配置。发送 bearer token:Authorization: Bearer <token>
- 当
gateway.auth.mode="token"时,使用gateway.auth.token(或OPENCLAW_GATEWAY_TOKEN)。 - 当
gateway.auth.mode="password"时,使用gateway.auth.password(或OPENCLAW_GATEWAY_PASSWORD)。 - 如果配置了
gateway.auth.rateLimit并且发生太多身份验证失败,端点将返回429并带有Retry-After。
安全边界(重要)
将此端点视为网关实例的 完全操作员访问 表面。- 此处的 HTTP bearer 身份验证不是狭窄的每用户范围模型。
- 此端点的有效 Gateway(网关) 令牌/密码应被视为所有者/操作员凭据。
- 请求通过与受信任的操作员操作相同的控制平面 agent 路径运行。
- 此端点上没有单独的非所有者/每用户工具边界;一旦调用者通过 Gateway(网关) 身份验证,OpenClaw 会将该调用者视为此网关的受信任操作员。
- 如果目标 agent 策略允许敏感工具,此端点可以使用它们。
- 仅将此端点保留在 loopback/tailnet/私有入口上;不要将其直接暴露给公共互联网。
Agent 优先的模型合约
OpenClaw 将 OpenAImodel 字段视为 agent 目标,而不是原始提供商模型 ID。
model: "openclaw"路由到配置的默认智能体。model: "openclaw/default"也路由到配置的默认智能体。model: "openclaw/<agentId>"路由到特定的智能体。
x-openclaw-model: <provider/model-or-bare-id>覆盖所选智能体的后端模型。x-openclaw-agent-id: <agentId>作为兼容性覆盖仍然受支持。x-openclaw-session-key: <sessionKey>完全控制会话路由。x-openclaw-message-channel: <channel>为感知渠道的提示词和策略设置合成入口渠道上下文。
model: "openclaw:<agentId>"model: "agent:<agentId>"
启用端点
将gateway.http.endpoints.chatCompletions.enabled 设置为 true:
禁用端点
将gateway.http.endpoints.chatCompletions.enabled 设置为 false:
会话行为
默认情况下,该端点是每个请求无状态的(每次调用都会生成一个新的会话密钥)。 如果请求包含 OpenAIuser 字符串,Gateway(网关) 会从中派生一个稳定的会话密钥,因此重复调用可以共享一个智能体会话。
为什么此接口很重要
这是针对自托管前端和工具的杠杆率最高的兼容性集合:- 大多数 Open WebUI、LobeChat 和 LibreChat 设置都期望
/v1/models。 - 许多 RAG 系统期望
/v1/embeddings。 - 现有的 OpenAI 聊天客户端通常可以从
/v1/chat/completions开始。 - 更多智能体原生的客户端越来越倾向于
/v1/responses。
模型列表和智能体路由
`/v1/models` 返回什么?
`/v1/models` 返回什么?
一个 OpenClaw 智能体目标列表。返回的 id 是
openclaw、openclaw/default 和 openclaw/<agentId> 条目。
直接将它们作为 OpenAI model 值使用。`/v1/models` 列出的是代理还是子代理?
`/v1/models` 列出的是代理还是子代理?
它列出的是顶级代理目标,而不是后端提供商模型,也不是子代理。子代理仍然是内部执行拓扑。它们不会显示为伪模型。
为什么要包含 `openclaw/default`?
为什么要包含 `openclaw/default`?
openclaw/default 是配置的默认代理的稳定别名。这意味着客户端可以继续使用一个可预测的 id,即使真实的默认代理 id 在环境之间发生了变化。如何覆盖后端模型?
如何覆盖后端模型?
使用
x-openclaw-model。示例:
x-openclaw-model: openai/gpt-5.4
x-openclaw-model: gpt-5.4如果省略它,选定的代理将使用其正常配置的模型选择运行。嵌入如何适应此协议?
嵌入如何适应此协议?
/v1/embeddings 使用相同的代理目标 model id。使用 model: "openclaw/default" 或 model: "openclaw/<agentId>"。
当您需要特定的嵌入模型时,请在 x-openclaw-model 中发送它。
如果没有该标头,请求将传递到选定代理的正常嵌入设置。流式传输 (SSE)
设置stream: true 以接收服务器发送事件 (SSE):
Content-Type: text/event-stream- 每个事件行是
data: <json> - 流以
data: [DONE]结束
Open WebUI 快速设置
对于基本的 Open WebUI 连接:- Base URL:
http://127.0.0.1:18789/v1 - Docker 在 macOS 上的 Base URL:
http://host.docker.internal:18789/v1 - API 密钥:您的 Gateway(网关) bearer token
- 模型:
openclaw/default
GET /v1/models应该列出openclaw/default- Open WebUI 应该使用
openclaw/default作为聊天模型 id - 如果您想要为该代理使用特定的后端提供商/模型,请设置代理的正常默认模型或发送
x-openclaw-model
openclaw/default,大多数 Open WebUI 设置可以使用相同的基础 URL 和令牌进行连接。
示例
非流式:/v1/models返回 OpenClaw 代理目标,而不是原始提供商目录。openclaw/default始终存在,因此一个稳定的 ID 可在不同环境中工作。- 后端提供商/模型覆盖应属于
x-openclaw-model,而不是 OpenAImodel字段。 /v1/embeddings支持input作为字符串或字符串数组。
本页面源自 openclaw/openclaw,由 BeaversLab 翻译,遵循 MIT 协议 发布。