Skip to main content

Token 使用与成本

OpenClaw 追踪的是 tokens,而不是字符。Token 取决于具体的模型,但大多数 OpenAI 风格的模型对于英文文本平均每个 Token 约对应 4 个字符。

系统提示词是如何构建的

OpenClaw 在每次运行时会组装自己的系统提示词。它包括:
  • 工具列表 + 简短描述
  • 技能列表(仅元数据;指令通过 read 按需加载)
  • 自我更新指令
  • 工作区 + 引导文件(AGENTS.mdSOUL.mdTOOLS.mdIDENTITY.mdUSER.mdHEARTBEAT.mdBOOTSTRAP.md,如果是新的)。大文件会被 agents.defaults.bootstrapMaxChars 截断(默认:20000)。
  • 时间(UTC + 用户时区)
  • 回复标签 + 心跳行为
  • 运行时元数据(主机/操作系统/模型/思考)
有关完整的细分,请参阅 系统提示词

哪些内容计入上下文窗口

模型接收的所有内容都计入上下文限制:
  • 系统提示词(上面列出的所有部分)
  • 对话历史(用户 + 助手消息)
  • 工具调用和工具结果
  • 附件/转录(图片、音频、文件)
  • 压缩摘要和修剪产物
  • 提供商包装器或安全标头(不可见,但仍会计入)
如需实用的细分(按注入的文件、工具、技能和系统提示词大小),请使用 /context list/context detail。请参阅 上下文

如何查看当前的 Token 使用量

在聊天中使用以下命令:
  • /status富含表情符号的状态卡片,其中包含会话模型、上下文使用情况、 上一次回复的输入/输出 Token 数以及 预估成本(仅限 API 密钥)。
  • /usage off|tokens|full → 在每次回复中附加每次回复的使用情况页脚
    • 按会话持久化(存储为 responseUsage)。
    • OAuth 身份验证隐藏成本(仅显示 Token)。
  • /usage cost → 显示来自 OpenClaw 会话日志的本地成本摘要。
其他界面:
  • TUI/Web TUI: 支持 /status + /usage
  • CLI: openclaw status --usageopenclaw channels list 显示 提供商配额窗口(而非每次回复的成本)。

成本估算(显示时)

成本是根据您的模型定价配置估算的:
models.providers.<provider>.models[].cost
这些是 inputoutputcacheReadcacheWrite 每 100 万 Token 的美元价格。如果缺少定价,OpenClaw 仅显示 Token。OAuth Token 从不显示美元成本。

缓存 TTL 和修剪的影响

提供商提示词缓存仅在缓存 TTL 时间窗口内有效。OpenClaw 可以 选择运行 cache-ttl 修剪:一旦缓存 TTL 过期,它会修剪会话,然后重置缓存窗口,以便后续请求可以重用 新缓存的上下文,而不是重新缓存完整历史记录。这可以保持较低的 缓存写入成本,特别是当会话空闲超过 TTL 时。 在 Gateway(网关) 配置 /en/gateway/configuration 中进行配置,并在 /en/concepts/session-pruning 中查看行为详细信息。 心跳可以在空闲间隙期间保持缓存热度。如果您的模型缓存 TTL 为 1h,将心跳间隔设置得略短于该时间(例如 55m)可以避免 重新缓存完整提示词,从而降低缓存写入成本。 对于 Anthropic API 定价,缓存读取明显比输入 token 便宜,而缓存写入则按更高的倍率计费。请参阅 Anthropic 的提示词缓存定价以获取最新费率和 TTL 倍率: https://docs.anthropic.com/docs/build-with-claude/prompt-caching

示例:使用心跳保持 1 小时缓存热度

agents:
  defaults:
    model:
      primary: "anthropic/claude-opus-4-5"
    models:
      "anthropic/claude-opus-4-5":
        params:
          cacheRetention: "long"
    heartbeat:
      every: "55m"

降低 token 压力的技巧

  • 使用 /compact 来总结长会话。
  • 在工作流中裁剪大型工具输出。
  • 保持技能描述简短(技能列表会被注入到提示词中)。
  • 对于冗长、探索性的工作,首选较小的模型。
请参阅 Skills 以了解确切的技能列表开销公式。
本页面源自 openclaw/openclaw,由 BeaversLab 翻译,遵循 MIT 协议 发布。
Last modified on March 27, 2026